Geschichte der künstlichen Intelligenz

aus Wikipedia, der freien Enzyklopädie

Als Gründungsveranstaltung der künstlichen Intelligenz als akademischem Fachgebiet gilt die Dartmouth Conference im Sommer 1956 am Dartmouth College in Hanover (New Hampshire), ein sechswöchiger Workshop mit dem Titel Dartmouth Summer Research Project on Artificial Intelligence, organisiert von John McCarthy im Rahmen eines von der Rockefeller-Stiftung geförderten Forschungsprojekts. Im Antrag dazu erschien erstmals der Begriff „artificial intelligence“.[1] Neben McCarthy selbst nahmen daran unter anderen Marvin Minsky, Nathaniel Rochester und Claude Elwood Shannon teil.

Vorgeschichte

Die Idee, dass sich die menschliche Intelligenz oder auch ganz allgemein die Vorgänge des menschlichen Denkens möglicherweise automatisieren oder mechanisieren lassen, dass der Mensch eine Maschine konstruieren und bauen könnte, die auf irgendeine Art und Weise intelligentes Verhalten zeigt, ist allerdings schon sehr viel älter. Als früheste Quelle wird zumeist auf Julien Offray de La Mettrie und sein 1748 veröffentlichtes Werk L’Homme Machine verwiesen. Auch die Idee des Laplaceschen Dämons, benannt nach dem französischen Mathematiker, Physiker und Astronomen Pierre-Simon Laplace kann insofern zu den theoretischen Vorläufern der Künstlichen Intelligenz gezählt werden, als diesem Entwurf die Modellvorstellung zugrunde liegt, dass das gesamte Universum nach den Regeln einer mechanischen Maschine – gewissermaßen wie ein Uhrwerk – abläuft, und diese Vorstellung dann natürlich auch den Menschen und seinen Geist, seine Intelligenz, mit einschließt.

Historische Automaten und Roboter

In der Geschichte finden sich an etlichen Stellen Berichte von mechanischen Automaten für bestimmte Tätigkeiten, die in einem mehr oder weniger menschenähnlichen Gehäuse eingebaut waren und damit – bis zu einem gewissen Grad – die Illusion eines künstlichen Menschen vermitteln sollten. Teilweise handelte es sich hierbei auch um Jahrmarkts-Attraktionen bis hin zu Figuren wie C-3PO aus Star Wars.

Homunculi, Golem und andere künstliche Menschen

Neben diesen Automaten, die zumindest von ihren Konstrukteuren und Erbauern in aller Regel tatsächlich als Maschinen mit begrenzten mechanischen Fähigkeiten verstanden wurden, gab es auch theoretische oder literarische Entwürfe von künstlich erzeugten Lebewesen, die in ihren Fähigkeiten und auch in ihrem Aussehen dem Menschen ähnlich sein sollten. Eine allgemeine Vorstellung von einem Homunculus wurde schon in der Antike beschrieben, ein Plan für die angebliche Herstellung eines Homunkulus findet sich in der Schrift De natura rerum (1538), die allgemein Paracelsus zugeschrieben wird. Weitere Beispiele sind hier die jüdische Legende vom Golem in ihren verschiedenen Varianten oder Mary Shelleys Roman Frankenstein.

Künstliche Intelligenz in der Literatur

Der polnische Philosoph und Science-Fiction-Autor Stanisław Lem veranschaulichte diese Vorstellung in zahlreichen belletristischen Werken.

Theoretische Grundlagen im 20. Jahrhundert

Basierend auf den Arbeiten von Alan Turing, unter anderem auf dem Aufsatz Computing machinery and intelligence, formulierten Allen Newell (1927–1992) und Herbert A. Simon (1916–2001) von der Carnegie Mellon University in Pittsburgh die Physical Symbol System Hypothesis.[2] Ihr zufolge ist Denken Informationsverarbeitung, und Informationsverarbeitung ein Rechenvorgang, eine Manipulation von Symbolen. Auf das Gehirn als solches komme es beim Denken nicht an: „Intelligence is mind implemented by any patternable kind of matter.“ Diese Auffassung, dass Intelligenz unabhängig von der Trägersubstanz sei, wird von den Vertretern der starken KI-Forschung geteilt. Für Marvin Minsky (1927–2016) vom Massachusetts Institute of Technology (MIT), einen der Pioniere der KI, ist „das Ziel der KI die Überwindung des Todes“. Der Roboterspezialist Hans Moravec (* 1948) von der Carnegie Mellon University beschrieb 1988 in seinem Buch Mind Children (Kinder des Geistes) das Szenario der Evolution des postbiologischen Lebens: Ein Roboter überträgt das im menschlichen Gehirn gespeicherte Wissen in einen Computer, sodass die Biomasse des Gehirns überflüssig wird und ein posthumanes Zeitalter beginnt, in dem das gespeicherte Wissen beliebig lange zugreifbar bleibt.

Diskussion der Möglichkeit Künstlicher Intelligenz

Seit den Anfängen der wissenschaftlichen und philosophischen Erörterung der künstlichen Intelligenz wird über die Möglichkeit vor allem von „starker“ Künstlicher Intelligenz debattiert. Dabei wurde sogar hinterfragt, ob künstliche Systeme, die dem Menschen gleichen oder in einem noch zu bestimmenden Sinne ähnlich sind, überhaupt widerspruchsfrei vorstellbar sind.

Hubert Dreyfus’ Buch Die Grenzen künstlicher Intelligenz[3] stammt bereits aus dem Jahr 1972. Mit seinem Bruder Stuart E. Dreyfus beschrieb er die „Grenzen der Denkmaschine“ 1986.[4]

Auf der anderen Seite verweist Karl Popper (1977) auf eine These von Alan Turing, der einmal gesagt habe, „Gib genau an, worin deiner Meinung nach ein Mensch einem Computer überlegen sein soll, und ich werde einen Computer bauen, der deinen Glauben widerlegt.“[5], relativiert diese Aussage aber gleich wieder, indem er empfiehlt: „Wir sollten Turings Herausforderung nicht annehmen; denn jede hinreichend genaue Bestimmung könnte prinzipiell zur Programmierung eines Computers verwendet werden.“ Und im Übrigen verweist er darauf, dass schon für die menschliche Intelligenz bisher niemand eine von allen einschlägigen Fachleuten akzeptierte Definition der Intelligenz hat formulieren können, und dass demzufolge auch kein allgemein akzeptiertes Verfahren existiert, mit dem man das Vorhandensein bzw. den Ausprägungsgrad von „Intelligenz“ beim Menschen – und dann möglicherweise auch bei einem künstlichen System – würde objektiv überprüfen bzw. messen können.

Die Diskussion, ob es so etwas wie eine künstliche Intelligenz, die der menschlichen Intelligenz ebenbürtig ist, oder sogar überlegen, überhaupt geben kann, ist allerdings durch eine grundlegende Asymmetrie gekennzeichnet:

  • Autoren wie die Brüder Dreyfus vertreten die These, dass es künstliche Intelligenz dem strengen Sinne der starken KI nicht geben kann, d. h. sie vertreten im formallogischen Sinne eine Allaussage (mit negativem Vorzeichen) und die Argumente und Überlegungen, die sie für diese ihre These anführen, können an vielen Stellen angegriffen, bestritten oder möglicherweise sogar widerlegt werden.
  • Alan Turing behauptet demgegenüber lediglich, dass – unter bestimmten Bedingungen bzw. Voraussetzungen – etwas möglich sei und überlässt es anderen, diese Voraussetzungen zunächst erst einmal zu erfüllen. Solange dies aber noch nicht geschehen ist, kann Turings Behauptung nicht überprüft, demzufolge aber auch nicht falsifiziert werden, und ist insofern streng genommen nach dem von Popper formulierten Kriterium für Wissenschaftlichkeit keine wissenschaftliche Aussage.

Für eine Entscheidung, ob ein technisches System über eine dem Menschen ähnliche Intelligenz verfügt, wird oft auf einen Vorschlag von Alan Turing verwiesen, der unter dem Namen Turing-Test bekannt geworden ist. Alan Turing selbst hat allerdings nur die allgemeine Idee skizziert, die einem solchen Test zugrunde liegen könnte: wenn ein Mensch in einer Interaktion mit zwei „Partnern“, von denen einer ein anderer Mensch und der andere eben ein künstliches, technisches System ist, nicht (mehr) herausfinden bzw. unterscheiden könne, welcher der Partner der Mensch und welcher der Computer ist, so könnte man dem technischen System nicht mehr die Eigenschaft absprechen, ebenfalls intelligent zu sein. (Genauere Einzelheiten hierzu ließ Turing zunächst offen; im Übrigen ist natürlich klar, dass die Interaktion in einer solchen Testsituation so zu gestalten ist, z. B. in Form eines Telefongesprächs oder eines schriftlichen Frage-und-Antwort-Spiels, dass keine sachfremden Informationen die Beurteilung verfälschen können.)

Allerdings gab es, als Alan Turing diesen Vorschlag machte, ca. 1950, das Fachgebiet der künstlichen Intelligenz noch gar nicht, und dementsprechend auch noch nicht die Unterscheidung von starker und schwacher KI und schon gar nicht den Streit, ob es eine starke KI im engeren Sinne überhaupt geben könne. Natürlich gab es im späteren Verlauf verschiedene Versuche, Turings Idee zu konkretisieren und praktisch durchzuführen, die aber alle wegen Mängeln in der Konzeptualisierung – und auch in der praktischen Durchführung – kritisiert bzw. nicht anerkannt wurden.

Gleichzeitig nimmt die Rechenleistung von Computern inzwischen seit über 50 Jahren mit exponentieller Geschwindigkeit zu: Gordon Moore hatte im Jahr 1965 in einem Aufsatz[6] eine Verdoppelung etwa im 2-Jahres-Rhythmus vorhergesagt – zunächst nur bezogen auf die Packungsdichte der Bauelemente auf Computer-Chips und zunächst nur für die Zeit bis 1975. Unter dem Namen Mooresches Gesetz wurde aus dieser Prognose eine grobe Regel dafür, wie sich die Leistungsfähigkeit von Computersystemen entwickelt; im Jahre 2015 konnte dieses Gesetz seine 50-jährige Geltungsdauer feiern (es gab in dieser Zeit also 25 mal eine Verdopplung, also eine Leistungssteigerung um den Faktor ).

Vor diesem Hintergrund und weil das menschliche Gehirn in seiner Leistungsfähigkeit nahezu konstant ist, hat man schon jetzt für den Zeitpunkt, an dem eines Tages die Leistungsfähigkeit von Computern die des menschlichen Gehirns – und damit die künstliche die menschliche Intelligenz – übertreffen könnte, den Begriff der technologischen Singularität geprägt. Rein technisch bezogen auf die Anzahl der Operationen pro Zeiteinheit sowie den verfügbaren Speicherplatz übertreffen heutige, kostspielige Supercomputer die geschätzte Leistungsfähigkeit des menschlichen Gehirns zwar schon deutlich, jedoch werden menschliche Gehirne in Aufgaben wie Kreativität, Mustererkennung und Sprachverarbeitung nach wie vor (2017) als überlegen angesehen.[7] Die chinesischen Forscher Feng Liu, Yong Shi und Ying Liu haben im Sommer 2017 IQ-Tests mit öffentlich und kostenlos zugänglichen schwachen KIs wie etwa Google KI oder Apples Siri und weiteren durchgeführt. Im Maximum erreichten diese KIs einen Wert von etwa 47, was unter dem eines sechsjährigen Kindes in der ersten Klasse liegt. Ein Erwachsener kommt etwa im Durchschnitt auf 100. Bereits 2014 wurden ähnliche Tests durchgeführt bei denen die KIs noch im Maximum den Wert 27 erreichten.[8]

Forschungsrichtungen und Phasen der KI

Datei:Hans-Werner Hein 12. September 1986 – Das schlechte Image von KI.ogg Die Anfangsphase der KI war geprägt durch eine fast grenzenlose Erwartungshaltung im Hinblick auf die Fähigkeit von Computern, „Aufgaben zu lösen, zu deren Lösung Intelligenz notwendig ist, wenn sie vom Menschen durchgeführt werden“.[9] Herbert Simon prognostizierte 1957 unter anderem, dass innerhalb der nächsten zehn Jahre ein Computer Schachweltmeister werden und einen wichtigen mathematischen Satz entdecken und beweisen würde. Diese Prognosen trafen nicht zu. Simon wiederholte die Vorhersage 1990, allerdings ohne Zeitangabe. Immerhin gelang es 1997 dem von IBM entwickelten System Deep Blue, den Schach-Weltmeister Garri Kasparov in sechs Partien zu schlagen. Im Jahr 2011 gewann das Computerprogramm Watson im Quiz Jeopardy! gegen die beiden bislang erfolgreichsten Spieler.

Newell und Simon entwickelten in den 1960er Jahren den General Problem Solver, ein Programm, das mit einfachen Methoden beliebige Probleme sollte lösen können. Nach fast zehnjähriger Entwicklungsdauer wurde das Projekt schließlich eingestellt. John McCarthy schlug 1958 vor, das gesamte menschliche Wissen in eine homogene, formale Darstellungsform, die Prädikatenlogik 1. Stufe, zu bringen.

Weizenbaum: ELIZA

Ende der 1960er Jahre entwickelte Joseph Weizenbaum (1923–2008) vom MIT mit einem relativ simplen Verfahren das Programm ELIZA, in dem der Dialog eines Psychotherapeuten mit einem Patienten simuliert wird. Die Wirkung des Programms war überwältigend. Weizenbaum war selbst überrascht, dass man auf relativ einfache Weise Menschen die Illusion eines beseelten Partners vermitteln kann. „Wenn man das Programm missversteht, dann kann man es als Sensation betrachten“ sagte Weizenbaum später über ELIZA.[10] Auf einigen Gebieten erzielte die KI Erfolge, beispielsweise bei Strategiespielen wie Schach und Dame, bei mathematischer Symbolverarbeitung, bei der Simulation von Robotern, beim Beweisen von logischen und mathematischen Sätzen und schließlich bei Expertensystemen. In einem Expertensystem wird das regelbasierte Wissen eines bestimmten Fachgebiets formal repräsentiert. Das System wendet bei konkreten Fragestellungen diese Regeln auch in solchen Kombinationen an, die von menschlichen Experten nicht in Betracht gezogen werden. Die zu einer Problemlösung herangezogenen Regeln können angezeigt werden, d. h. das System kann sein Ergebnis „erklären“. Einzelne Wissenselemente können hinzugefügt, verändert oder gelöscht werden; moderne Expertensysteme verfügen dazu über komfortable Benutzerschnittstellen.

Expertensysteme

Eines der bekanntesten Expertensysteme war das Anfang der 1970er Jahre von T. Shortliffe an der Stanford University entwickelte MYCIN. Es diente zur Unterstützung von Diagnose- und Therapieentscheidungen bei Blutinfektionskrankheiten und Meningitis. Ihm wurde durch eine Evaluation attestiert, dass seine Entscheidungen so gut sind wie die eines Experten in dem betreffenden Bereich und besser als die eines Nicht-Experten. Allerdings reagierte das System, als ihm Daten einer Cholera-Erkrankung – eine Darm- und keine Blutinfektionskrankheit – eingegeben wurden, mit Diagnose- und Therapievorschlägen für eine Blutinfektionskrankheit: MYCIN erkannte die Grenzen seiner Kompetenz nicht. Man nennt dies den Cliff-and-Plateau-Effekt. Er ist für Expertensysteme, also Computerprogramme, die der Diagnoseunterstützung dienen (Medical Decision-Support Systems) und dabei hochspezialisiert auf ein schmales Wissensgebiet sind, typisch. In den 1980er Jahren wurde der KI, parallel zu wesentlichen Fortschritten bei Hard- und Software, die Rolle einer Schlüsseltechnologie zugewiesen, insbesondere im Bereich der Expertensysteme. Man erhoffte sich vielfältige industrielle Anwendungen, erwartete auch eine Ablösung „eintöniger“ menschlicher Arbeit (und deren Kosten) durch KI-gesteuerte Systeme. Nachdem allerdings viele Prognosen nicht eingehalten werden konnten, reduzierten die Industrie und die Forschungsförderung ihr Engagement. Solch eine Phase des Rückgangs von Erwartungen und Investitionen wird als KI-Winter bezeichnet.[11]

Maschinelles Lernen und neuronale Netze

Expertensysteme und andere auf Wissensdatenbanken basierende Systeme hatten nur mäßigen Erfolg, da es sich als zu schwer herausstellte, das benötigte Wissen von Hand in formale Regeln zu überführen. Diese Schwäche wird durch maschinelles Lernen umgangen. Hierbei lernt das Computersystem selbstständig anhand der vorliegenden Daten und ist so auch in der Lage, verborgene Zusammenhänge zu erkennen, die ein Mensch nicht berücksichtigt hätte.[12] Klassische Verfahren lernen dabei eine Ausgabefunktion anhand vorher extrahierter Merkmale, die durch manuelle Programmierung aus den Eingabedaten extrahiert wurden. Hierbei zeigte sich jedoch ein ähnliches Problem wie bei den Expertensystemen, dass eine manuelle Auswahl nicht immer zu einem optimalen Ergebnis führt. Eine aktuell erfolgreiche Struktur für maschinelles Lernen sind künstliche neuronale Netze (KNNs). Sie basieren auf der Fähigkeiten, die erforderlichen Merkmale selbst anhand der Rohdaten zu lernen, beispielsweise direkt aus den Kamerabildern.[12]

Historisch gesehen wurden die ersten KNNs als lineare Modelle wie die McCulloch-Pitts-Zelle 1943 und das Adaline-Modell 1959 entwickelt. Man analysierte, ausgehend von der Neurophysiologie, die Informationsarchitektur des menschlichen und tierischen Gehirns. Zur Untersuchung dieser Verfahren hat sich die Neuroinformatik als wissenschaftliche Disziplin entwickelt. Schwächen bei der Modellierung selbst einfacher logischer Funktionen wie dem XOR durch diese linearen Modelle führten zunächst zu einer Ablehnung der KNNs und biologisch inspirierter Modelle im Allgemeinen.[12]

Dank der Entwicklung nichtlinearer mehrlagiger, faltender neuronaler Netze und der dafür nötigen Trainingsverfahren, aber auch durch die Verfügbarkeit der dafür benötigten leistungsstarken Hardware und großen Trainings-Datensätze (z. B. ImageNet) erzielten KNNs seit 2009 Erfolge in zahlreichen Mustererkennungs-Wettbewerben und dominierten gegenüber klassischen Verfahren mit händischer Auswahl der Merkmale. Die dafür verwendeten, mehrlagigen neuronalen Netze werden auch unter dem Schlagwort Deep Learning zusammengefasst.[12]

Des Weiteren werden KNNs auch als generative Modelle, das heißt zur Erzeugung echt wirkender Bilder, Videos oder Tonaufnahmen, eingesetzt, was insbesondere durch die Erfindung der Generative Adversarial Networks 2014 in immer besserer Qualität möglich wurde. Die Ergebnisse einer darauf aufbauenden Arbeit aus dem Jahre 2017, die imaginäre Bilder von Gesichtern erzeugt, wurden von Fachkreisen als „eindrucksvoll realistisch“ beschrieben.[13] Mit DeepFakes wurden die Ergebnisse ab 2017 auch einer breiten Öffentlichkeit bekannt. Dabei wurde insbesondere die Frage diskutiert, inwieweit man einem Foto- oder Videobeweis noch trauen kann, wenn es möglich wird, beliebig echt wirkende Bilder automatisiert zu erzeugen.

Spielpartner bei Brett- und Videospielen

In der KI haben sich mittlerweile zahlreiche Subdisziplinen herausgebildet, etwa spezielle Sprachen und Konzepte zur Darstellung und Anwendung von Wissen, Modelle zu Fragen von Revidierbarkeit, Unsicherheit und Ungenauigkeit und maschinelle Lernverfahren. Die Fuzzylogik hat sich als weitere Form der schwachen KI etwa bei Maschinensteuerungen etabliert. Weitere erfolgreiche KI-Anwendungen liegen in den Bereichen natürlich-sprachlicher Schnittstellen, Sensorik, Kybernetik und Robotik.

Im März 2016 besiegte das System AlphaGo mit dem Südkoreaner Lee Sedol einen der weltbesten Go-Spieler. Das vom Unternehmen DeepMind entwickelte Programm hatte zuvor Millionen von archivierten Spielen mit Deep Learning ausgewertet und zudem mehrere Millionen Mal gegen sich selbst gespielt.[14]

Im August 2017 besiegte eine künstliche Intelligenz der Firma OpenAI bei einem mit 24 Millionen Dollar dotierten Turnier des Computerspiels Dota 2 einige der weltbesten Profispieler auf diesem Gebiet (unter anderem Profispieler Danylo "Dendi" Ishutin). Dota 2 gilt als eines der komplexesten Videospiele überhaupt, komplexer als Go oder Schach. Dota 2 wurde allerdings hier im eins zu eins Modus gespielt und nicht im komplexeren Team-Modus. OpenAI erklärte, dass die KI nur vier Monate benötigte, um diese Spielstärke zu erreichen. Die KI wurde trainiert, indem diese immer wieder gegen sich selbst antrat. Die KI bekam das gleiche Sichtfeld wie der menschliche Spieler und durfte nur eine begrenzte Anzahl von Aktionen gleichzeitig ausführen. Ziel von OpenAI ist es nun, eine KI zu entwickeln, die die besten menschlichen Spieler auch im Team-Modus besiegen kann.[15]

Audio

Weblinks

Einzelnachweise

  1. A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence. (McCarthy et al.: Förderantrag, August 1955, S. 1) (Memento vom 30. September 2008 im Internet Archive)
  2. Allen Newell, Herbert A. Simon: Computer Science as Empirical Inquiry: Symbols and Search. In: Communications of the ACM. Vol. 19, No. 3, March, 1976, S. 113–126 Text (PDF)
  3. Hubert L. Dreyfus: Die Grenzen künstlicher Intelligenz. Was Computer nicht können. Athenäum, Königstein 1985 [engl. Original: What Computers Can’t Do: The Limits of Artificial Intelligence. 1972]
  4. Hubert L. Dreyfus, Stuart E. Dreyfus: Künstliche Intelligenz: Von den Grenzen der Denkmaschine und dem Wert der Intuition. Rowohlt rororo, Reinbek 1986 (englisch Original: Mind Over Machine: The Power of Human Intuition and Expertise in the Era of the Computer. Free Press, New York 1986)
  5. K. R. Popper, J. C. Eccles: Das Ich und sein Gehirn. Piper, München 1982, S. 257 (englisch Original: The Self and Its Brain. Springer, Heidelberg 1977)
  6. G. E. Moore: Cramming more components onto integrated circuits. In: Electronics. Band 38, Nr. 8, 1965 (monolithic3d.com [PDF; 802 kB]).
  7. Big data: Computer vs. Human Brain | MS&E 238 Blog. Abgerufen am 30. August 2020 (englisch).
  8. Google-KI doppelt so schlau wie Siri – aber ein Sechsjähriger schlägt beide. 5. Oktober 2017.
  9. Minsky
  10. Dokumentarfilm Plug & Pray mit Joseph Weizenbaum und Raymond Kurzweil
  11. Andreas Kaplan (2022) Artificial Intelligence, Business and Civilization - Our Fate Made in Machines, Routledge, ISBN 9781032155319.
  12. a b c d Ian Goodfellow, Yoshua Bengio, Aaron Courville: Deep learning. MIT Press, 2016, ISBN 978-0-262-03561-3, 1 Introduction, S. 1 ff. (deeplearningbook.org).
  13. Martin Giles: The GANfather: The man who’s given machines the gift of imagination. In: MIT Technology Review. (technologyreview.com [abgerufen am 14. November 2018]).
  14. David Silver, Aja Huang et al.: Mastering the Game of Go with Deep Neural Networks and Tree Search (PDF) Google DeepMind und Google vom 27. Januar 2016, abgerufen am 10. Dezember 2018
  15. Eike Kühl: Künstliche Intelligenz: Jetzt besiegt sie auch noch Profigamer In: zeit.de, 19. August 2017, abgerufen am 25. Dezember 2019.