Kapitel 8. Adversariales maschinelles Lernen

Diese Arbeit wurde mithilfe von KI übersetzt. Wir freuen uns über dein Feedback und deine Kommentare: translation-feedback@oreilly.com

In dem Maße, in dem maschinelles Lernen allgegenwärtig in kritischen Systemen eingesetzt wird, wird natürlich auch seine Zuverlässigkeit hinterfragt. Auch wenn wir keine Panikmache betreiben sollten, ist die Bedrohung, die feindliche Agenten für maschinelle Lernsysteme darstellen, real. Ähnlich wie ein Hacker eine Firewall-Schwachstelle ausnutzt, um sich Zugang zu einem Webserver zu verschaffen, kann auch ein maschinelles Lernsystem gezielt für die Ziele eines Angreifers eingesetzt werden. Bevor solche Lösungen in die Schusslinie geraten, ist es daher wichtig, ihre Schwächen zu kennen und zu wissen, wie anpassungsfähig sie unter Stress sind.

Adversariales maschinelles Lernen ist die Untersuchung von Schwachstellen des maschinellen Lernens in gegnerischen Umgebungen. Sicherheitsforscher und Forscher für maschinelles Lernen haben Forschungen über praktische Angriffe auf Antivirenprogramme mit maschinellem Lernen veröffentlicht,1 Spam-Filter,2 Netzwerk-Eindringlingsdetektoren, Bildklassifizierer, Sentiment-Analysatoren3 Sentiment-Analysatoren,4,5 und mehr. In letzter Zeit wurde dieser Bereich immer aktiver erforscht, auch wenn solche Angriffe nur selten in freier Wildbahn beobachtet wurden. Wenn die Informationssicherheit, die nationale Souveränität und Menschenleben auf dem Spiel stehen, sind die Entwickler ...

Get Maschinelles Lernen und Sicherheit now with the O’Reilly learning platform.

O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.