Adversarial Attack

aus Wikipedia, der freien Enzyklopädie

Unter einer Adversarial Attack (zu deutsch „feindlicher Angriff“) versteht man im Kontext von Künstlicher Intelligenz (KI) bzw. Deep Learning die Verwendung von Adversarial Examples (zu Deutsch „feindliche Beispiele“) zur Manipulation der Klassifikationsergebnisse. Ein Adversarial Example ist ein speziell manipuliertes Eingangs-Signal in ein künstliches Neuronales Netzwerk, welches dieses absichtlich zu Fehlklassifikationen verleitet. Die Manipulation wird so vorgenommen, dass ein menschlicher Beobachter diese nicht bemerkt oder nicht als solche erkennt. Beispielsweise bei einem zur Objekterkennung trainierten neuronalen Netzwerk könnten die Pixel eines Bildes leicht verändert werden, sodass diese Veränderungen für Menschen nicht sichtbar sind, das Netzwerk die Objekte auf dem Bild jedoch falsch zuordnet.

In allen Anwendungsbereichen neuronaler Netzwerke konnte die Anfälligkeit für Adversarial Examples gezeigt werden. Aufgrund der zunehmenden Erfolge tiefer neuronaler Netzwerke und deren Einsatz in sicherheitskritischen Aufgaben, wie im autonomen Fahren zur Erkennung von Verkehrsschildern, rücken Adversarial Attacks und Methoden zur Abwehr oder Erkennung solcher Adversarial Examples zunehmend in den Fokus der KI-Forschung.

Die Störanfälligkeit von Neuronalen Netzen (beispielsweise im Kontext von Adversarial Examples) kann durch die Größe der Lipschitzkonstante plausibilisiert werden[1].

Literatur

  • OECD: Künstliche Intelligenz in der Gesellschaft. OECD, 2020, ISBN 978-92-64-18146-5, Robustheit und Sicherheit, S. 111 ff., doi:10.1787/6b89dea3-de (oecd-ilibrary.org [abgerufen am 7. Oktober 2020]).
  • Han Xu, Yao Ma, Hao-Chen Liu, Debayan Deb, Hui Liu: Adversarial Attacks and Defenses in Images, Graphs and Text: A Review. In: International Journal of Automation and Computing. Band 17, Nr. 2, 1. April 2020, ISSN 1751-8520, S. 151–178, doi:10.1007/s11633-019-1211-x (englisch).

Einzelnachweise

  1. Shayan Aziznejad, Michael Unser: Deep Spline Networks with Control of Lipschitz Regularity. In: ICASSP 2019 - 2019 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP). IEEE, Mai 2019, doi:10.1109/icassp.2019.8682547.