Vetenskap & teknik
Pocket
Adversariale Robustheit Neuronaler Netze. Verteidigungen gegen Vermeidungsangriffe zur Testzeit
Bijan Kianoush Riesenberg
759:-
Uppskattad leveranstid 7-12 arbetsdagar
Fri frakt för medlemmar vid köp för minst 249:-
Gelernte Klassifikationsverfahren sind nicht sicher, wenn Angreifer gezielte Vernderungen an der Eingabe vornehmen. Obwohl diese nderungen fr den Menschen kaum wahrnehmbar sind, ndert sich die Klassifikation. Um gelernte Modelle in sicherheitskritischen Bereichen anwenden zu knnen, ist es erforderlich, Methoden zu entwickeln, die Robustheit gegen adversariale Angriffe gewhrleisten knnen. Hier wird eine bersicht ber verschiedene Anwendungsflle, Angriffe, die daraus entstehenden Problemstellungen, Anstze zur Verteidigung sowie Gefahren bei der Evaluation dieser gegeben und die Notwendigkeit korrekter Verfahren aufgezeigt.
- Illustratör: 19 Abbildungen
- Format: Pocket/Paperback
- ISBN: 9783961468560
- Språk: Tyska
- Antal sidor: 128
- Utgivningsdatum: 2021-08-24
- Förlag: Diplomica Verlag