Geschichte der Künstlichen Intelligenz
Fragt man Alexa nach der Geschichte der künstlichen Intelligenz und ihren Anfängen verortet sie den Ursprung in das Jahr 1956, als John McCarthy erstmals den Begriff „Künstliche Intelligenz“ prägte. Doch bald wird klar, dass bereits vor den 1950er Jahren Alan Turing mit seiner „Turing Maschine“ fundamentale Erkenntnisse beisteuerte. Genauso wie weitere brilliante Denker davor. So lässt sich die Geschichte der Künstlichen Intelligenz weiter und weiter in die Vergangenheit zurückverfolgen. Dieser Artikel gibt einen straffen Überblick.
Dafür, dass die künstliche Intelligenz nicht annähernd das leisten kann, was man von ihr – aus Hollywood Mythen und Werbung – erwarten möchte, hat sie bereits eine respektable Biografie.
Wie bei vielen neuen Technologien durchläuft auch die Künstliche Intelligenz dem üblichen Hypecycle oder – besser gesagt – absolvierte bereits mehrfache Hypecycles. Allerdings begann die Geschichte der Künstlichen Intelligenz schon viel früher – sehr viel früher. Wenn man so will, bereits in der Antike.
Schon in der griechischen Mythologie phantasierte man über künstliche Wesen und mechanische Menschen, die man aus allerlei exotischen Materialien erschaffen und denen man vollständig habhaft werden konnte.
Vorausgesetzt man war – ein Gott.
So schrieb man Hephaestus zu – Gott des Feuers und Schmiedens – allerlei nützliche Automaten geschaffen zu haben. So auch den Automaten „Talos“ – ein übergroßer Krieger aus Bronze – um die Göttin „Europa“ auf Kreta vor Piraten zu schützen.
Pygmalion, ein zypriotischer Künstler, hingegen schuf eine so kunstvoll geschnitzte Elfenbein-Statue, dass er sich in sie verliebte. Seine inbrünstiges Begehren wurden von Aphrodite erhört und sie hauchte der Statue Leben ein. Dieses Thema (belebte Statuen) taucht immer wieder in zahlreichen literarischen Werken auf u.a. bei Shakespears „The Winter´s Tale“.
Immerhin verfügte man als normal-sterblicher Zeitgenosse in der Antike über ein beachtliches Wissen zur Pneumatik und Mechanik. Damit ließen sich schon damals bemerkenswerte Regelwerke bauen – auch wenn deren praktischer Nutzen bei einigen Kreationen noch unklar war.
Dieses Wissen ermöglichte dem griechischen Erfinder Ktesibios eine Reihe erstaunlicher Automaten zu bauen. Neben einer präzisen Wasseruhr (deren Präzision 2000 Jahre nicht übertroffen werden konnte) schuf er eine „programmierbare“ Wasserorgel.
Philon von Byzanz, ebenfalls ein griechischer Erfinder aus dem 3. Jhdt v. Chr. und Schüler Ktesibios, schrieb wichtige Werke über Pneumatik und Mechanik. Darin enthaltene Texte geben Anleitungen wie man neben zahlreichem militärischem Gerät auch Automaten (z.B. „Das Staton – ein automatisches Theater“) erschaffen kann. Im griech. Kotsanas Museum für altgriechische Technologie steht eine exakte, funktionierende Replik dieses Theaterautomaten, die ganz hervorragend Szenen aus dem Mythos des Nauplios abspielt. Ein antiker mechanischer Videoplayer sozusagen.
Manche der Erfindungen Philons kann man als eine der frühesten beschriebenen Roboter sehen.
Zum Beispiel auch seine „Automatische Dienerin“. Eine lebensgroße Figur einer Dienerin, die Wein in ein Glas einschenkte, sobald man es auf ihre linke ausgestreckte Handfläche stellte.
Apropos – antikes Griechenland – hier sollte man nicht vergessen, das Artefakt (oder Mechanismus) von Anti-Kythera zu erwähnen. Um 1900 durch Zufall am Meeresgrund in einem Schiffs-Wrack vor der Insel Anti-Kythera entdeckt, als Teil einer Schiffsladung, gesunken etwa 67 v. Chr., geborgen als unansehnlicher Klumpen und im Archäologischen Nationalmuseum in Athen als unbekanntes Fragment ausgestellt. Erst viele Jahre später gelang es – mit viel Akribie – den vermeintlichen Klumpen zu enträtseln und seine Funktionsweise zu entschlüsseln. Es stellte sich eine Sensation heraus: Es handelt sich bei diesem tausende Jahre alten Artefakt zwar um keinen Automatismus, aber um einen hochraffinierten Mechanismus, der einem mechanischen Computer ähnelt. Für die Zeitepoche – aus heutiger Sicht – sensationell. Dieser Para-Computer war in der Lage komplexe Bahnen der Himmelsgestirne (Sonne, Mond, Erde) in Beziehung darzustellen. Ein präziser Kalender aus komplizierten Differentialgetrieben. Nicht nur für die damalige Seefahrt muss dieses High-Tech Werkzeug von großem Wert gewesen sein. Das Artefakt vom Anti-Kythera war also 67 v. Chr. ein ziemlich „smartes Tool“ und es gibt Hinweise, wonach dieser raffinierte mechanische Kalender damals schon in kleiner Serie produziert wurde.
Erst im Mittelalter tauchen wieder Ideen auf, toter Materie Geist einzuhauchen. Bewerkstelligt sollte dies mittels Alchemie, magischen Beschwörungen und allerhand unappetitlichen organischen Zutaten.
Allen voran sei – als heimische Prominenz – Paracelsius genannt und sein Werk „De Natura rerum“. Obwohl erst ab dem Späten Mittalter der geläufige Begriff des „Homunkulus“ (künstlich geschaffener Mensch, die Entstehung des Begriffs geht sogar auf die Zeit der Römer zurück) verwendet wurde, schreibt man die Verknüpfung des Homunkulus mit „Künstlicher-Mensch“ eher Paracelsius zu, jedoch nannte dieser „Homunkulus“ in keinem seiner Werke. Zu allgemeiner Bekanntheit der Homunkulus-Idee verhalf erst viel später Goethes „Faust II“. Auch im Takwin (islamische Alchemie) experimentierte Jābir ibn Hayyān mit künstlichem Leben aus dem Labor. Laut jüdischer Folklore hat angeblich Rabbi Judah Loew aus Lehm und einer guter Portion Magie im 16. Jhdt. ein künstliches Wesen geschaffen, den Golem. Auch wenn es sehr unwahrscheinlich ist, dass ihm das wirklich gelungen wäre, diente der Golem virtuell über die Jahrhunderte hinweg, zahlreichen Legenden als Projektionsfigur weitreichender Symboliken.
Auch wenn das Mittelalter stark durch alchemistische und spirituelle Ideen geprägt war, gab es nach wie vor die Idee, menschliches Denken mechanistisch / deduktiv nachzuahmen. Chinesische und indische Denker beschäftigten sich mit deduktiven Formalismen (so wie Griechen) schon vor mehr als 2000 Jahren.
Der persische Gelehrte al-Khwārizmī wiederum entwickelte Algebra und den Begriff „Algorithmus“.
In der Renaissance verblüffte Leonardo da Vinci mit einer Vielzahl ausgeklügelter Entwürfen und tatsächlichen Bauten, die u.a. Robotern ähnelten. Sein Verständnis von Mechanik, Pneumatik, Ästhetik, Mathematik und Architektur war genial.
Ramon Llull erdachte im 13. Und 14. Jhdt. logische Maschinen, die – wie er sagte – „jedes mögliche Wissen“ nur durch logische Ableitungen erzeugen könnten. Diese Idee diente im 17. Jhdt. Gottfried Leibnitz (Mathematiker und Philosoph) als Grundlage für seine Spekulation: menschliches Denken wäre auf pure mechanische Berechnung reduzierbar. Eine gewagte These.
Als Zeitgenosse von Thomas Hobbes (Autor von Leviathan) und René Descartes war Leibnitz mit seinen Ideen in guter Gesellschaft – nach dem Motto „Alles ist berechenbar.“ Das obige Denker-Trio – alle stets dem streng schlussfolgernden Denken (Syllogistischen Logik) verpflichtet – legten den ersten Grundstein für die spätere physical symbol system hypothesis (PSSH). Ein wichtiges Fundament für die aufkommende Philosophie der künstlichen Intelligenz des 20. Jhdts.
Georg Boole (mathematischer Autodidakt und Logiker) schuf 1854 das Werk „The Laws of Thought“ ,welches u.a. die Boolesche Algebra vermittelt. Ein Grundstein im Fundament des Informations-Zeitalters. Mit dem Mathematiker und Philosophen Alfread N. Whitehead und seinem dreibändigen Werk „Principia Mathematica“, eine epochale Schrift und Grundpfeiler der modernen mathematischen Logik, haben wir nun den Beginn des 20. Jhdts. erreicht. Interessanterweise entwickelte sich Whiteheads Weltsicht weiter in Richtung Metaphysik und Prozess-Philosophie.
David Hilbert forderte Mathematiker in 1920ern und 1930ern mit der fundamentalen Frage heraus:
„Kann alles Mathematische Denken formalisiert werden?“
Es stellte sich heraus: Jain.
Salopp gesagt: Es gibt Grenzen, jedoch innerhalb dieser Grenzen ist alles möglich.
Nach der Church-Turing These kann eine mechanische Vorrichtung einfachste Symbole z.B. „0“ und „1“ so anordnen, dass dadurch beliebige mathematische Ableitungen abgebildet werden können. Aus dieser These entstand eine abstrakte Maschine – die Turing Maschine.
Sie dient heute noch als mathematisches Modell für Computer. Erdacht wurde sie von Alan Turing (Lieblingsstudent von L. Wittgenstein), ein genialer Mathematiker und Kryptologe. Ihm ist zu verdanken, dass die Enigma-Maschine der deutschen Wehrmacht entschlüsselt wurde. Ein Erfolg, der im 2. Weltkrieg u.a. kriegsentscheidend war und vielen Menschen das Leben rettete. Ein echter Held des Denkens. Nach dem Krieg verhielt man sich ihm gegenüber jedoch ziemlich unfair (Turing war homosexuell) und undankbar. Er starb früh in Folge einer merkwürdigen Vergiftung. Basierend auf Turing und John von Neumann entstanden im 2. Weltkrieg erste Großrechner, wie ENIAC und Colossus. Als eigentlicher Erfinder des ersten voll-automatischen digitalen Computers gilt jedoch Konrad Zuse und sein Z3 Computer. Der Z3 wurde jedoch vor der richtigen Inbetriebnahme 1941 in Berlin zerstört.
Ideen zu programmierbare Maschinen gab es allerdings schon im 19. Jhdt.
Charles Barbage erdachte 1837 die Analytische Maschine. Ein rein mechanischer Rechner. Barbage konnte die Analytische Maschine jedoch nie fertig bauen. Sie war immerhin – vom Konzept her – eine echte „Turing Maschine“. Unbedingt erwähnenswert ist Ada Lovelace. Sie konnte zeigen, wie sich die Maschine (mit Noten) programmieren ließe und wurde dadurch zur ersten Programmiererin.
All die vorangegangenen Epochen ermöglichten schlussendlich die Geburt zumindest des Begriffs „Künstliche Intelligenz“. Nach einer Reihe bedeutender Arbeiten von Norbert Wiener (Neurologe) und Claude Shannon (Informationstheoretiker) und der Turing Maschine lag der Gedanke nahe, dass elektronische und neuronale Signale vom Funktions-Prinzip her ähnlich sind. Die Schaffung eines elektronischen Gehirns erschien machbar. Walter Pitts und Warren McCulloch experimentierten bereits mit künstlichen Neuronen und sie schufen den Begriff „Neuronales Netzwerk“.
Marvin Minsky baute 1951 SNARC (Stochastic neural analog reinforcement calculator) – die erste Neuronale Netzwerk Maschine und wurde zur Ikone der KI in den 50ern.
Der neue Denkansatz: eine Maschine kann nicht nur Zahlen, sondern auch Symbole manipulieren führte zu der Idee:
Nun auch menschliche Gedanken abbilden? Warum nicht?
Denkende Turing Maschinen sozusagen.
So dauerte es nicht lange bis Allen Newell und Herbert Simon 1955 eine Lösung für das „Leib/Seele Problem“ anhand ihres „Logic Theorist“ Programms (erste KI Software) postulierten.
Schließlich wurde auf der Dartmouth Conference 1956 die akademische Disziplin „Künstliche Intelligenz“ gegründet.
Das goldene Zeitalter der Künstlichen Intelligenz (1. Hypecycle) 1956 – 1974
Wir befinden uns im 1. Hypecycle. Die Begeisterung und Erwartung Maschinen würden nun intelligent und jedes Problem logisch lösen, war enorm.
Große Visionen entstanden.
Fördergelder flossen in Strömen – insbesondere vonseiten der Defense Advanced Research Projects Agency (DARPA). Man war überzeugt, eine vollständig intelligente Maschine innerhalb von 20 Jahren bauen zu können (wenn es nach Evangelist Marvin Minsky ging).
Obwohl einige interessante neue Denkansätze entwickelt wurden, wie z.B. „Problemlösung durch Suche“, Verstehen natürlicher Sprache mit Netzwerken aus Bedeutungen (semantic networks), Verstehen von Zusammenhängen aufgebaut aus simplen Teilblöcken (micro-worlds) etc., kam die erwartete Entwicklung nur schleppend voran. Man kam über das Niveau von einfachen, ja trivialen Problemlösungen nicht hinaus. Die Erwartungen waren einfach zu hochgeschraubt. (Ein generelles Problem der KI)
In den 70ern schien die Magie vorüber. Das Heer der Kritiker wurde größer und lauter. DARPA leitete Gelder in andere vielversprechendere Projekte um.
Einer der zentralen Kritikpunkte war die Illusion:
Maschinen könnten je denken, da sie das was sie verarbeiten, nicht begreifen würden. (Dryfus & Searle)
Die Überzeugung, wie manche KI Forscher ihre Kritiker ignorierten, grenzte an Fanatismus.
Auch ethische Fragen wurden laut.
Grabenkämpfe innerhalb der KI Forscher waren ebenfalls bemerkenswert. So schaffte es z.B. Minsky durch eine Buch Veröffentlichung, die vielversprechende Idee eines selbstlernenden Netzwerks – das Perceptron – seines Schülers Frank Rosenblatt nachhaltig in der Öffentlichkeit zu diskreditierend. Mit ihm wurden die Anfänge des Konnektivismus auf Eis gelegt.
Neuer Aufwind (2. Hypecycle 1980-1987)
Mit der Idee der „Experten Systeme“ entsteht eine neue Blase in der KI Forschung.
John Hopfield und David Rumelheart wiederbeleben mit ihren Arbeiten den psych. Konnektionismus.
Experten-Systeme lösen in eng abgegrenzten Bereichen Aufgabenstellungen. Sie basieren auf ein Regelwerk (Hopfield-Netze), das zuvor von Expertenmeinungen abgeleitet wurde.
Diese Systeme waren vom Start weg enorm erfolgreich.
Firmen investierten große Budgets in deren Weiterentwicklung. Experten-Systeme auszudehnen auf Wissensmanagement Systeme lag auf der Hand. Douglas Lenat versucht mit Cyc eine Datenbank des Allgemeinwissens zu schaffen. So viel ein durchschnittlicher Menschen wissen konnte. 1989 schaffte es die Carnegie Mellon Universität mit HiTech und Deep Thought (Vorläufer von Deep Blue) Schachweltmeister zu schlagen.
Nun begannen auch wieder Fördergelder zu fließen, nicht nur von DARPA, sondern auch aus Konsortien der Wirtschaft.
Allerdings nur für kurze Zeit.
Die Geschichte wiederholt sich. Je höher die Erwartungen, umso tiefer der Fall.
1987 mit dem Aufkommen billiger Desktop-Computer von IBM und Apple wurden große, teure und schwerfällige Expertensysteme auf Mainframes fragwürdig. Hoch gesteckte Ziele wurden wieder einmal nicht erreicht.
Es kommt zum „2. Winter der KI“
Doch der Niedergang eines Hypes ist der Aufstieg eines Nächsten.
Nun begann man Intelligenz von „unten nach oben“ zu denken.
Ausgehend vom Moravec Paradox und umgekehrt zur klassischen Annahme abstraktes Denken wäre das höchste zu erreichende Gut, ist es wesentlich realitätsnaher/natürlicher sich auf niedrigere informationsverarbeitende Schritte (z.b. Wahrnehmung, Mobilität) zu konzentrieren, obwohl sie wesentlich rechenintensiver sind. Im Prinzip sind es alle jene Prozesse, die unbewusst sind. Mit diesem Ansatz warf man kurzerhand die wichtigsten Grundpfeiler der klassischen KI um. Wie z.B. physical symbol system hypothesis. Ein intelligentes System soll nicht von abstrakten Symbolen alleine lernen, sondern von der realen Welt selbst, und zwar ohne Unterbrechung.
Maschinelle Intelligenz reift heran – in Schritten (3. Hypecycle 1993- 2011)
1997 ist es IBMs DEEP BLUE gelungen in der Lage Garry Kasparov zu schlagen.
2005 legte erstmals ein völlig autonomes (untrainiertes) Fahrzeug in der DARPA Grand Challenge 211 Kilometer im offenen Gelände zurück. Kurz darauf gelang dies auch einen Forscher-Team im urbanen Bereich mit 88km.
Das Thema „Autonomes Fahren“ war geboren.
2011 schlägt DEEP BLUE wieder zu und besiegt die amtierenden Quiz-Master einer Quiz Show.
Alle diese Erfolge waren hauptsächlich Früchte einer neuen aufkeimenden Eigenschaft moderner maschineller Intelligenz: massive Rechenpower. (Siehe dazu Moore´s Law)
Mit der Kombination aus Konzepten der Entscheidungstheorie und der Spiel Theorie (beliebt in Wirtschaftskreisen, siehe dazu auch J. Nash) wurde die Idee der „intelligenten Agenten“ geboren. Diese Agenten trachten stets danach in einer Umgebung ihre Chancen auf Gewinn zu maximieren.
Nun tritt eine Phase ein, in der Künstliche Intelligenz thematisch eher in den Hintergrund rückt, obwohl mit ihr wichtige Fortschritte im DataMining, Robotik, Spracherkennung, Logistik usw. erreicht wurden. KI Forscher vermeiden in ihren Projektanträgen Begriffe wie „Künstliche Intelligenz“, um bei Geldgebern nicht wieder schlechte Erinnerungen an den letzten „KI Winter“ zu wecken. Auf die Tagesordnung treten „Tarnbegriffe“, wie z.B. Kognitive Systeme, Computational Intelligence usw.
Nach wie vor bleiben hochgegriffene Visionen und Prophezeiungen aus dem 1. Hype-Cycle, trotz all der Fortschritte, unerfüllt.
Big Data Hype 2011 – heute (4. HypeCycle)
Drei Themen bestimmen das aktuelle Hoch dieses letzte und aktuellen Kapitels: Big Data, Deep learning, Allgemeine Künstliche Intelligenz (AGI-Artificial General Intelligence).
Bei Big Data geht es um die Verwertung riesiger Datenmengen nach den 5V (Volume/Menge, Velocity/Geschwindigkeit, Variety/Vielfalt, Value/Mehrwert, Veracity/Vielfalt) Gesichtspunkten.
Deep Learning versucht durch Errichten einer tiefen, vielschichtigen Repräsentation von Daten hohe Abstraktion zu erreichen. Anhand dieses Modells gelang es u.a. die letzte menschliche Bastion anspruchsvoller Spiele zu knacken: Das Spiel GO
2015 wurde der legendäre GO Meister Lee Sedol in einem spektakulären Match mit 4-1 von einer AI bekannt unter dem Namen AlphaGO vernichtend geschlagen. Ein episches Match – bei dem es um viel mehr ging als nur um Siegen. In diesem nervenaufreibenden Spiel war mehr als deutlich zu spüren, wie die letzten Grundfesten eines Mythos eingerissen wurden:
Siege in GO wären für Maschinen unerreichbar, weil GO (anders als Schach) eher intuitiv und „unberechenbar“ zu Spielen wäre.
AlphaGO bewies das Gegenteil in beeindruckender Weise.
In diesem Wettkampf ging es also tatsächlich um den Kampf „Mensch gegen Maschine“. Bei dem der Mensch unterlag. AlphaGo erhielt dafür den 9. Dan, die höchste existierende Auszeichnung als GO Spieler und ist nun das Maß aller Dinge in der GO Welt. Und dem noch nicht genug wurde AlphaGO von seinem Nachfolger AlphaGO ZERO besiegt. Dieser Nachfolger trainierte sich selbst und ist in der Lage völlig neuartige Spielzüge zu entwickeln. Entwickler gaben an, dass diese „kreativen“ Spielzüge – nicht mehr völlig nachvollziehbar wären.
Entwickelt sich hier eventuell eine Art Proto-Intuition in einer AI? Interessant.
Artificial General Intelligence versucht hingegen hinter die eigentliche Essenz der Intelligenz zu gelangen. Neue intelligente Maschinen sollen ähnlich wie menschliche Intelligenz reagieren, ohne sie zu imitieren. Da AGI den Anspruch verfolgt menschliche Intelligenz (irgendwann) zu übertreffen und sogar anstrebt AGI ein eigenständiges Bewusstsein entwickeln zu lassen, spricht man auch von „Ganzer Künstlicher Intelligenz“ (full AI).
Fazit:
Wie auch immer diese – schon recht beachtliche – Geschichte der Künstlichen Intelligenz, weiter in die Zukunft verlaufen wird: ihre Entwicklung war bislang eine turbulente und sie ist schon fast so alt wie die (bekannte) Zivilisation des Menschen selbst. Neue Hypecycles werden folgen. Ob sie die Menschheit weiter entwickeln oder – gar – vernichten wird, lässt sich aus dem heutigen Standpunkt kaum vorhersagen. Sicher erscheint jedenfalls, dass Künstliche Intelligenz schon jetzt die tiefgreifendste Technologie ist, die der Mensch hervorgebracht hat. Wir sollten daher dessen Entwicklung sehr genau im Auge behalten.