Affective Computing

aus Wikipedia, der freien Enzyklopädie

Affective Computing (auch: Emotions-KI, Gesinnungsanalyse) ist eine Technologie durch Einsatz von Künstlicher Intelligenz menschliche Affekte und Emotionen durch Computer zu erkennen.

Allgemein

Der Begriff »Affective Computing« stammt von Rosalind Picard, die als eine der ersten sich mit diesem Gebiet befasste und die Möglichkeit sah, das von Paul Ekman entwickelte Facial Action Coding System zur Beschreibung von Gesichtsausdrücken mit Rechnern zu automatisieren. Laut Ekman schlüpfen, selbst wenn Personen ihre emotionale Kommunikation zu zensieren oder zu kontrollieren versuchen, »Leaks« durch die Maschen der Kontrolle.[1]

Picard stellte sich einen Computer als »affektiven Spiegel« vor, der einen als Coach auf ein Vorstellungsgespräch oder eine Verabredung vorbereiten könne und z. B. auf aggressive Untertöne aufmerksam machen könne. Oder auch als ein Feedback für Spieleentwickler über das Frustationslevel der Spieler. Zusammen mit Rana el Kaliouby gründete sie das Unternehmen »Affectiva«, die sich jedoch unter Leitung von Kaliouby zum Überwachungskapitalismus hinwendete. Kaliouby meint, wir werden das pausenlose Scannen von Emotionen irgendwann genauso hinnehmen wie das Setzen von Cookies beim Surfen im Web. Affective bietet »Emotion als Dienstleistung«, bei der man eine Auswertung von eingesandten Videos oder Fotos erhält.[2]

2015 erhielt das Start-up Realeyes von der Europäischen Kommission Fördermittel für das Projekt »SEWA: Automatic Sentiment Analysis in the Wild«, welches die Emotionen des Betrachters von Content erkennen kann, und ob er ihm gefällt. 2016 bekam Realeyes dafür den Innovationspreis der Kommission. In der Produktbeschreibung von SEWA steht, dass solche Technologien sogar Verhaltensindikatoren vermessen können, die zu subtil oder flüchtig sind, um von menschlichen Augen oder Ohren gemessen zu werden.[3]

2014 erhielt Facebook ein Patent für »Emotionserkennung«, um das Interesse des Nutzers am dargestellten Content erkennen zu können.[4]

Eine Firma namens Emoshape produziert einen Mikrochip, von dem sie behauptet er könne mit einer Wahrscheinlichkeit bis zu 98 % zwölf Emotionen klassifizieren, was es seiner künstlichen Intelligenz erlaube, 64 Billionen möglicher Zustände zu erfahren.[5]

Die EU-Kommission möchte mit „iBorderCtrl“ Affective Computing für eine Art Lügendetektor einsetzen mit denen Einreisende in die EU überprüft werden sollen.[6]

Kritik

Der israelische Historiker Yuval Noah Harari warnt:

„Wir müssen uns darüber im Klaren sein, dass Wut, Freude, Langeweile und Liebe biologische Phänomene sind, genau wie Fieber und Husten. Denn dieselbe Technologie, die Husten identifiziert, könnte auch Lachen identifizieren. Wenn Unternehmen und Regierungen damit beginnen, unsere biometrischen Daten massenhaft zu sammeln, können sie uns viel besser kennenlernen, als wir uns selbst kennen, und sie können dann nicht nur unsere Gefühle vorhersagen, sondern auch unsere Gefühle manipulieren und uns alles verkaufen, was sie wollen - sei es ein Produkt oder einen Politiker. Eine biometrische Überwachung würde die Datenhacking-Strategien von Cambridge Analytica wie ein Überbleibsel aus der Steinzeit aussehen lassen. Stellen wir uns einmal Nordkorea im Jahr 2030 vor, wenn jeder Bürger rund um die Uhr ein biometrisches Armband tragen muss. Wenn man sich dann eine Rede des ‚Obersten Führers’ anhört und das Armband die verräterischen Zeichen von Wut auffängt, ist man erledigt.“[7]

Patrick Breyer kritisiert im Zusammenhang mit der geplanten „iBorderCtrl“:

„Systeme zur Erkennung auffälligen Verhaltens erzeugen schrittweise eine gleichförmige Gesellschaft passiver Menschen, die bloß nicht auffallen wollen. Eine solche tote Überwachungsgesellschaft ist nicht lebenswert.“[8]

Rechtslage

Der Entwurf für die KI-Verordnung der Europäischen Kommission vom April 2021 sieht im Artikel 52 vor das betroffene Personen über die Erkennung ihrer Emotionen oder einer biometrischen Kategorisierung informiert werden müssen. Eine Ausnahme gilt nur für biometrische Kategorisierung zur Verbrechensbekämpfung.[9]

Siehe auch

Literatur

  • Shoshana Zuboff: Das Zeitalter des Überwachungskapitalismus. Frankfurt/New York 2018.
  • Rosalind W. W. Picard: Affective Computing. MIT Press 2000. ISBN 0262661152.
  • Gerardus Blokdyk: Affective Computing A Complete Guide – 2020 Edition.
  • Shaundra B. Daily, Melva T. James, David Cherry, John J. Porter, Shelby S. Darnell, Joseph Isaac, Tania Roy: Chapter 9 – Affective Computing: Historical Foundations, Current Applications, and Future Trends. In: Editor: Myounghoon Jeon, Emotions and Affect in Human Factors and Human-Computer Interaction, Academic Press, 2017, Pages 213–231, ISBN 9780128018514, https://doi.org/10.1016/B978-0-12-801851-4.00009-4.
  • Hu, X. et al. (2019) ‘Ten challenges for EEG-based affective computing’, Brain Science Advances, 5(1), pp. 1–20. doi:10.1177/2096595819896200.

Einzelnachweise

  1. Zuboff, S. 326 f.
  2. Zuboff, S. 327 ff.
  3. Zuboff, S. 323 f.
  4. Zuboff, S. 329.
  5. Zuboff, S. 331.
  6. https://www.patrick-breyer.de/pressebriefing-transparenzklage-gegen-geheime-eu-ueberwachungsforschung-iborderctrl/
  7. Zit. n.: Klaus Schwab, Thierry Malleret: Covid-19: Der Grosse Umbruch. Cologny 2020, S. 199 f.
  8. https://www.patrick-breyer.de/pressebriefing-transparenzklage-gegen-geheime-eu-ueberwachungsforschung-iborderctrl/
  9. „Users of an emotion recognition system or a biometric categorisation system shall inform of the operation of the system the natural persons exposed thereto. This obligation shall not apply to AI systems used for biometric categorisation, which are permitted by law to detect, prevent and investigate criminal offences.“ Abrufbar unter: https://artificialintelligenceact.eu/the-act/