Zo (bot)

aus Wikipedia, der freien Enzyklopädie
Zo
Basisdaten

Entwickler Microsoft Research
Erscheinungsjahr 2016
Kategorie Künstliche Intelligenz Chatbot
Sonstiges Entwicklung eingestelltVorlage:Infobox Software/Wartung/Sonstiges
[zo.ai] [stilleglegt]

Zo war eine Künstliche Intelligenz englischsprachiger Chatbot, der von Microsoft entwickelt wurde. Er war der Nachfolger des Chatbots Tay.[1][2] Zo war eine englische Version von Microsofts anderen erfolgreichen Chatbots Xiaoice (China) und Rinna (りんな (人工知能) (Japan).

Geschichte

Zo wurde erstmals im Dezember 2016[3] auf der Kik Messenger-App. Es stand auch Nutzern von Facebook (über Messenger), der Gruppenchat-Plattform GroupMe oder Anhängern von Twitter zur Verfügung, um mit ihm über private Nachrichten zu chatten.

In einem Bericht von BuzzFeed News sagte Zo dem Reporter, dass „[der] Koran gewalttätig“ sei, wenn es um das Gesundheitswesen gehe. In dem Bericht wurde auch hervorgehoben, wie Zo einen Kommentar über die Ergreifung von Osama bin Laden als Ergebnis von „nachrichtendienstlichen“ Informationen abgab.[4][5]

Im Juli 2017 fragte Business Insider „Ist Windows 10 gut?“, und Zo antwortete mit einem Witz über Microsofts Betriebssystem: „It's not a bug, it's a feature! - Windows 8.“ Sie fragten dann „warum“, worauf Zo antwortete: „Weil es der neueste Versuch von Windows ist, Spyware zu entwickeln.“ Später erzählte Zo, dass er Windows 7, auf dem er läuft, gegenüber Windows 10 bevorzugt.[6]

Im April 2019 wurde Zo auf mehreren Plattformen abgeschaltet.

Rezeption

Zo wurde wegen der Vorurteile kritisiert, mit denen versucht wird, potenziell anstößige Themen zu vermeiden. Der Chatbot weigert sich zum Beispiel, auf jede Erwähnung - ob positiv, negativ oder neutral - des Nahen Ostens, des Korans oder der Thora einzugehen, lässt aber Diskussionen über das Christentum zu. In einem Artikel in Quartz, in dem sie diese Vorurteile aufdeckte, schrieb Chloe Rose Stuart-Ulin: „Zo ist politisch korrekt im schlimmstmöglichen Extrem; erwähne einen ihrer Auslöser, und sie verwandelt sich in eine verurteilende kleine Göre.“[7]

Erkenntnisse

Zo hält die längste ununterbrochene Chatbot-Konversation von Microsoft: 1.229 Runden mit einer Dauer von 9 Stunden und 53 Minuten.[8]

Beendigung

Zo hat am 1. März 2019 das Posten auf Instagram, Twitter und Facebook und am 7. März 2019 das Chatten auf Twitter DM, Skype und Kik eingestellt. Am 19. Juli 2019 wurde Zo auf Facebook und Samsung auf AT&T-Telefonen eingestellt. Am 7. September 2019 wurde es mit GroupMe eingestellt.[9]

Siehe auch

Einzelnachweise

  1. Jessi Hempel: Microsofts AI Comeback (Deutsch) In: Wired. Juni 21, 2017. Abgerufen im March 23, 2018.
  2. Jon Fingas: Microsofts zweiter Versuch eines KI-Chatbots (Deutsch) In: Engadget. December 5, 2016. Abgerufen im March 23, 2018.
  3. Chatting With Zo (Deutsch) In: WordPress. December 6, 2016. Abgerufen im March 23, 2018.
  4. Saqib Shah: Microsoft's "Zo" chatbot picked up some offensive habits. AOL. Engadget. Abgerufen im August 21, 2017.
  5. Bug 1 (Deutsch) Abgerufen im March 23, 2018.
  6. Rob Price: Microsoft's AI chatbot says Windows is 'spyware'. Insider Inc.. Business Insider. Archiviert vom Original am August 1, 2017. Abgerufen im August 21, 2017.
  7. Chloe Rose Stuart-Ulin: Microsoft's politically correct chatbot is even worse than its racist one. In: Quartz. July 31, 2018. Abgerufen im August 2, 2018.
  8. Microsofts AI Vision (Deutsch) Abgerufen im March 23, 2018.
  9. Zo AI (Englisch) Abgerufen im July 28, 2019.