OpenAI

aus Wikipedia, der freien Enzyklopädie
OpenAI LP

Rechtsform Limited Partnership
Gründung 11. Dezember 2015
Sitz San Francisco, California, USA[1]
Leitung Sam Altman, und weitere
Website www.openai.com

OpenAI LP ist ein Unternehmen, das sich, kontrolliert durch die Non-Profit-Organisation OpenAI Inc, mit der Erforschung von künstlicher Intelligenz (KI, englisch Artificial Intelligence, AI) beschäftigt.

Zentrale Geldgeber der Organisation sind der Investor und Unternehmer Elon Musk sowie das Unternehmen Microsoft. Das Ziel von OpenAI ist, künstliche Intelligenz auf Open-Source-Basis auf eine Art und Weise zu entwickeln und zu vermarkten, dass sie der Gesellschaft Vorteile bringt und nicht schadet. Die Organisation ermöglicht eine „freie Zusammenarbeit“ mit anderen Institutionen[2] und Forschern, indem sie ihre Patente und Forschungsergebnisse für die Öffentlichkeit zugänglich macht.[3] Die Firma ist mit über 1 Milliarde USD von Spenden finanziert, wobei erwartet wird, dass in den ersten Jahren nur ein kleiner Teil dieser finanziellen Mittel verbraucht werden wird.[4]

OpenAI beschäftigt sich mit der Frage der „existenziellen Bedrohung durch künstliche Intelligenz“ – also dem möglichen Übertreffen und Ersetzen der menschlichen durch künstliche Intelligenz. Die Organisation dient bis jetzt nur zur Erforschung der künstlichen Intelligenz und wird wahrscheinlich später mit Neuralink verbunden werden. Im Februar 2018 wurde bekannt gegeben, dass Elon Musk die Leitung von Open AI verlässt, um Interessenkonflikte mit Teslas Entwicklungen im Bereich Künstliche Intelligenz zu vermeiden. Er bleibt weiterhin Spender und Berater der Organisation.

Motive

Die Wissenschaftler Stephen Hawking und Stuart Jonathan Russell äußerten Befürchtungen, dass – wenn künstliche Intelligenz eines Tages die Fähigkeit erlangen könnte, sich selbst zu verbessern – dies zu einer „Explosion der Intelligenz“ führen könnte. Durch die damit einhergehende Überlegenheit der KI wäre eine Verdrängung der Spezies Mensch durch superintelligente künstliche Intelligenz denkbar, die keinen menschlichen Wertvorstellungen unterworfen ist.

Selbst Elon Musk, Mitbegründer von OpenAI, bezeichnet künstliche Intelligenz als größte existenzielle Gefahr für die Menschheit. Um diesem Risiko bei der Entwicklung von künstlicher Intelligenz entgegenzutreten, wurde OpenAI als Open-source non-profit-Organisation konzipiert. Damit sollte sichergestellt werden, dass die Organisation von Verpflichtungen gegenüber Geldgebern und deren Interessen unabhängig ist. Damit sollte der Forschung der Freiraum geschaffen werden, sich auf lange Sicht positiv auf die Gesellschaft auswirken zu können.[4]

Das Unternehmen OpenAI selbst gibt zu bedenken, dass es schwer abzuschätzen sei, wie sehr die Gesellschaft von hochwertiger künstlicher Intelligenz profitieren könnte. Genauso komplex sei im Gegenzug zu eruieren, welchen Schaden eine missbräuchliche Verwendung dieser Technologie mit sich bringen könne.[4] Aus heutiger Sicht sei es obendrein auch nicht absehbar, wann künstliche Intelligenz auf dem Level sein würde, mit der menschlichen Intelligenz in Konkurrenz zu treten.[5] Der Vorstand von OpenAI ist jedenfalls überzeugt, dass künstliche Intelligenz eine Erweiterung des individuellen menschlichen Willens sei. Damit sollte diese Technologie auch flächendeckend verfügbar und jedem Menschen im gleichen Maße zugänglich sein.[4] Ein Übertreffen der menschlichen Intelligenz durch das auf mehrere Jahrzehnte konzipierte Projekt OpenAI ist für den Ko-Vorsitzenden des Unternehmens, Sam Altman, jedenfalls denkbar.[6]

Für den Vorstandsvorsitzenden von Infosys, Vishal Sikka, war die Offenlegung der Entwicklung von OpenAI maßgeblich für seine Unterstützung. Dabei war zentral, dass das Bestreben von OpenAI darin liegt, dass die Forschung stets „the greater good“ – also eine ganzheitlich positive Absicht für die Menschheit – im Fokus hatte.[7] Cade Metz von Wired sagte, dass Firmen wie beispielsweise Amazon Interesse an der Verwendung von Open-Source Software und Open-Source Data hätten, um sich gegen Unternehmen wie Google oder Facebook zu behaupten, die über eine starke proprietäre Datenbasis verfügen. Firmen von Y Combinator teilen ihre Daten ebenfalls mit OpenAI, so Altman in einem Interview.[6]

Strategie

Dass ein Risiko mit der Entwicklung und dem Voranbringen von freundlicher künstlicher Intelligenz einhergehe, bestritt Musk in einem Interview im Jahr 2015 nicht. Wichtig sei künstliche Intelligenz möglichst vielen Menschen zur Verfügung zu stellen, damit nicht ein kleiner Teil die Vorteile der KI allein für sich beanspruchen könne. Das sei die beste Verteidigung gegen missbräuchliche Verwendung von KI-Systemen.[8]

Diese Strategie von Musk und Altman, das Risiko der Schadensverursachung durch künstliche Intelligenz durch Open-Source KI für jedermann zu reduzieren, ist in der Community umstritten. Der Philosoph Nick Bostrom ist einer der Skeptiker dieses Ansatzes und verdeutlicht das sinngemäß mit folgender Metapher: „Wenn Sie einen Knopf haben, der Schaden in der Welt anrichten kann, würden Sie ihn nicht jedem verfügbar machen.“[9]

Produkte

OpenAI Gym

Ab 2016 hat OpenAI ihre Plattform „OpenAI Gym“ entwickelt, die sich mit bestärkendem Lernen (en: reinforcement learning) befasst.[10] Der Quellcode ist in seiner aktuellen Version auf GitHub abrufbar.[11] Dabei wird angestrebt ein Basissystem anzubieten, das leicht aufzusetzen ist und eine große Bandbreite an verschiedenen Entwicklungsumgebungen unterstützt. OpenAI Gym versucht damit eine Standardisierung für die Veröffentlichung von Ergebnissen in der Erforschung von künstlicher Intelligenz anzubieten, um Publikationen leichter vergleichen und reproduzieren zu können.[12][13]

OpenAI Five

Mit OpenAI Five wurde ein System miteinander kooperierender Algorithmen entwickelt. KI-Systeme agieren üblicherweise unabhängig voneinander. Hier arbeiten jetzt erstmals KI-Systeme zusammen im Team an einem gemeinsamen Ziel. In dem komplexen strategischen Computerspiel Dota 2 treten Teams aus mehreren Spielern gegeneinander an. In einem Wettbewerb waren diese kooperierenden KI-Systeme den menschlichen Spielern zwar überlegen, doch es ist zu beachten, dass in diesem Wettkampf eine stark vereinfachte Version des Spiels verwendet wurde, in der nur 17 der insgesamt 115 Helden spielbar sind und einige Gegenstände sowie Illusionsrunen nicht verfügbar waren.[14] Später wurde es Spielern aus der ganzen Welt für 3 Tage ermöglicht, im Rahmen der vereinfachten Version online gegen die KI zu spielen, wobei OpenAI in 7257 Spielen eine Siegesrate von 99,4 % aufwies, aber auch von vielen Teams mehrmals hintereinander besiegt wurde – von einem Team gar 10 Mal in Folge.[15] Ein Wettkampf mit Menschen ohne Einschränkungen im Spiel ist nicht geplant.

GPT-2

Ein weiteres Projekt ist GPT-2 (Generative Pretrained Transformer 2), bei dem es sich um eine Künstliche Intelligenz handelt, die englischsprachige Texte selbstständig vervollständigen kann und deren Texte teilweise von Menschen geschriebenen Texten nicht unterschieden werden können. Nach eigener Aussage hielten die Forscher ihre eigene Software für so gut funktionierend, dass sie selbst sich vor ihr fürchteten.

Der Unterschied zu einigen anderen automatischen Textgeneratoren ist, dass die Software zur Texterzeugung keine vordefinierten Textblöcke nutzt. Sie ist auch nicht auf einen Themenbereich festgelegt, sondern kann zu jeglichem Text einige passende Sätze erzeugen.[16] Das Sprachmodell basiert auf einem künstlichen neuronalen Netz mit 1,5 Milliarden Parametern. Es handelt sich um ein statistisches Sprachmodell, das beschreibt, wie wahrscheinlich ein bestimmter Satz in einem Kontext ist.[17] Datengrundlage für GPT-2 sind ungefähr 45 Millionen verarbeitete Seiten Text. Die Technik hinter GPT-2 ähnelt der Technik älterer Software, wie sie unter anderem von Google entwickelt worden ist. Nur die Wege, auf denen OpenAI die Daten zusammensetzt und wie die Softwaremodelle ineinandergreifen, sind neu.

Wissenschaftler kritisierten die von OpenAI gemeldeten Durchbrüche als Clickbaiting, die reißerischen Überschriften lenkten davon ab, dass der von OpenAI erzielte Durchbruch übertrieben werde.[18] Wie bei anderen ähnlichen Systemen zeigt nach Beurteilung von Fachleuten auch GPT-2 deutlich, dass es Schwierigkeiten hat, Inhalte zu verstehen und es diese Schwierigkeiten mithilfe statistischer Analysen eher überdeckt und die Inhalte nicht versteht. Zum Beispiel wurde ein Text über Einhörner zu einem fantasievollen Text über Einhörner mit vier Hörnern. Sind die Themen ungewöhnlicher und spezieller, scheinen die erzeugten Texte an Qualität zu verlieren. Bei vielen Forschern bleibt umstritten, ob eine künstliche Intelligenz überhaupt durch mehr Datenmengen erreichbar ist. Deep Learning benötige zu viele Daten und brauche im Gegensatz zum Menschen sehr viele Beispiele, um lernen zu können. Eine algorithmische Möglichkeit, menschliches Lernen zu simulieren, bleibt nach Aussage von Forschern auch mit Blick auf GPT-2 ein Rätsel für die Forschung der künstlichen Intelligenz und der Kognitionswissenschaft.[17] Nach Aussage eines Wissenschaftlers vom Deutschen Forschungszentrum für Künstliche Intelligenz stellt sich auch mit Blick auf GPT-2 nicht die häufig in der Gegenwart aufgeworfene polarisierende Frage eines Wettkampfes zwischen Mensch und Maschine, sondern eher die Frage, auf welche Art und Weise Journalisten in Zukunft ihre Texte mithilfe von Künstlicher Intelligenz verfassen werden.[19]

Im November 2019 veröffentlichte OpenAI GPT-2 auf einer Website, auf der der Textgenerator ausprobiert werden kann.[16] Von Studierenden wurde GPT-2 bereits nachgebaut und durch umfangreichere Modelle übertroffen.[20]

GPT-3

GPT-3 stellt eine Weiterentwicklung zu GPT-2 dar und wurde in Form einer wissenschaftlichen Publikation erstmals am 28. Mai 2020 vorgestellt.[21] Die darauf basierende OpenAI-API ist das erste kommerzielle Produkt von OpenAI.[22] Mit über 175 Milliarden Parametern übertrifft es bei weitem das mit 17 Milliarden Parametern vergleichbare und vormals größte T-NLG-Modell von Microsoft.

DALL-E

DALL-E wurde am 5. Januar 2021 von OpenAI vorgestellt. Der Name bildet ein Portmanteau aus WALL-E und dem spanischen Künstler Salvador Dalí. Das Programm beruht auf GPT-3 und kann Wörter als Input in Anordnungen von Pixeln als Output zu transferieren. Das System kombiniert dabei Bilderkennung und Computerlinguistik[23]. So erstellt das Programm fotorealistische Bilder allein auf Basis von Texteingaben. Im April 2022 wurde DALL-E 2.0 als verbesserte Version vorgestellt.[24]

Teilhaber am Projekt

Der Vorsitzende des Projekts:[25]

bis Februar 2018:

Weitere Unterstützer des Projekts:[8]

Hochrangige Mitarbeiter:

Die Entwicklergruppe startete Anfang Januar 2016 mit einem Team aus neun Forschern. Peter Lee von Microsoft erwähnte, dass die Kosten für einen Spitzenforscher im Bereich der Erforschung von künstlicher Intelligenz die Kosten eines NFL Quarterbacks überträfen. Obwohl OpenAI Gehälter auszahlt, die sich an Profit-Organisationen und nicht an jenen von Non-Profit-Organisationen orientieren, kann das Unternehmen mit Gehaltsschemata von beispielsweise Google oder Facebook nicht mithalten. Trotz der Unterschiede in der Bezahlung meinte Sutskever, dass er gewillt war Google für OpenAI den Rücken zu kehren. Der Grund hierfür läge sowohl in der guten Gruppe an Forschern bei OpenAI als auch an der Unternehmensmission. Brockman erklärte, dass es für ihn zentral sei, die Gesellschaft näher an die Verfügbarkeit von echter, sicherer künstlicher Intelligenz heranzubringen. Forscher Wojciech Zaremba von OpenAI lehnte Angebote von Firmen ab, die ihm das Zwei- bis Dreifache seines Marktwertes als Gehalt angeboten hätten, um sich stattdessen OpenAI anzuschließen.[9]

Weblinks

Einzelnachweise

  1. John Markoff: Artificial-Intelligence Research Center Is Founded by Silicon Valley Investors. The New York Times. 11. Dezember 2015. Abgerufen am 11. Dezember 2015.
  2. Dave Gershgorn: New ‘OpenAI’ Artificial Intelligence Group Formed By Elon Musk, Peter Thiel, And More. Popular Science. 11. Dezember 2015. Abgerufen am 12. Dezember 2015.
  3. Max Lewontin: Open AI: Effort to democratize artificial intelligence research?. In: The Christian Science Monitor, 14. Dezember 2015. Abgerufen am 19. Dezember 2015. 
  4. a b c d Tech giants pledge $1bn for 'altruistic AI' venture, OpenAI, BBC News. 12. Dezember 2015. Abgerufen am 19. Dezember 2015. 
  5. Jessica Mendoza: Tech leaders launch nonprofit to save the world from killer robots. In: The Christian Science Monitor. 
  6. a b Cade Metz: Elon Musk’s Billion-Dollar AI Plan Is About Far More Than Saving the World. In: Wired, 15. Dezember 2015. Abgerufen am 19. Dezember 2015.  „Altman said they expect this decades-long project to surpass human intelligence.“ 
  7. Vishal Sikka: OpenAI: AI for All. In: InfyTalk . Infosys. 14. Dezember 2015. Archiviert vom Original am 22. Dezember 2015.  Info: Der Archivlink wurde automatisch eingesetzt und noch nicht geprüft. Bitte prüfe Original- und Archivlink gemäß Anleitung und entferne dann diesen Hinweis.@1@2Vorlage:Webachiv/IABot/www.infosysblogs.com Abgerufen am 22. Dezember 2015.
  8. a b c d Silicon Valley investors to bankroll artificial-intelligence center. In: The Seattle Times, 13. Dezember 2015. Abgerufen am 19. Dezember 2015. 
  9. a b Cade Metz: Inside OpenAI, Elon Musk’s Wild Plan to Set Artificial Intelligence Free (en-US). In: Wired, 27. April 2016. Abgerufen am 28. April 2016. 
  10. Gym: A toolkit for developing and comparing reinforcement learning algorithms. OpenAI, abgerufen am 28. Juni 2018 (englisch).
  11. openai/gym. In: Github. Abgerufen am 28. Juni 2018 (englisch).
  12. Dave Gershgorn: Elon Musk's Artificial Intelligence Group Opens A 'Gym' To Train A.I.. In: Popular Science, 27. April 2016. Abgerufen am 29. April 2016. 
  13. Greg Brockman, John Schulman: OpenAI Gym Beta (Amerikanisches Englisch) In: OpenAI Blog . OpenAI. 27. April 2016. Abgerufen am 29. April 2016.
  14. OpenAI rules. Abgerufen am 24. April 2019.
  15. OpenAI results. Abgerufen am 24. April 2019.
  16. a b Matthias Kremp: „Talk to Transformer“. Diese künstliche Intelligenz schreibt beängstigend gut. In: Spiegel Online. 7. November 2019, abgerufen am 4. Januar 2020.
  17. a b Manuela Lenzen: Supertrolle am Start. In: FAZ.NET. 19. Februar 2019, abgerufen am 4. Januar 2020.
  18. Christian Alt: Zu gefährlich? Das KI-Tool von OpenAi. In: BR Fernsehen. 21. Februar 2019, abgerufen am 4. Januar 2020.
  19. Olivera Stajić: Roboterjournalismus: Dieser Text ist (noch) KI-frei. In: Der Standard. 24. Oktober 2019, abgerufen am 5. Januar 2020.
  20. Matthias Bastian: OpenAI: „Gefährliche“ Text-KI GPT-2 jetzt als Vollversion testen. In: mixed.de. 6. November 2019, abgerufen am 5. Januar 2020.
  21. Tom B. Brown, et al.: Language Models are Few-Shot Learners. 28. Mai 2020, arxiv:2005.14165.
  22. OpenAI API. OpenAI, 11. Juni 2020, abgerufen am 20. Juli 2020 (englisch).
  23. This avocado armchair could be the future of AI. In: MIT Technology Review. Abgerufen am 25. Juni 2022 (englisch).
  24. DALL·E 2. In: OpenAI. Abgerufen am 25. Juni 2022 (englisch).
  25. Amy Kraft: Elon Musk invests in $1B effort to thwart the dangers of AI, CBS News. 14. Dezember 2015. Abgerufen am 19. Dezember 2015. 
  26. Mit 188,5 Milliarden Dollar: Elon Musk ist reichster Mensch. Abgerufen am 13. Januar 2021.
  27. a b c Michael Liedtke: Elon Musk, Peter Thiel, Reid Hoffman, others back $1 billion OpenAI research center. In: San Jose Mercury News. Abgerufen am 19. Dezember 2015.