Gelernte Klassifikationsverfahren sind nicht sicher wenn Angreifer gezielte Veränderungen an
der Eingabe vornehmen. Obwohl diese Änderungen für den Menschen kaum wahrnehmbar sind ändert
sich die Klassifikation. Um gelernte Modelle in sicherheitskritischen Bereichen anwenden zu
können ist es erforderlich Methoden zu entwickeln die Robustheit gegen adversariale Angriffe
gewährleisten können. Hier wird eine Übersicht über verschiedene Anwendungsfälle Angriffe die
daraus entstehenden Problemstellungen Ansätze zur Verteidigung sowie Gefahren bei der
Evaluation dieser gegeben und die Notwendigkeit korrekter Verfahren aufgezeigt.