Bijan Kianoush Riesenberg

Adversariale Robustheit Neuronaler Netze

Verteidigungen gegen Vermeidungsangriffe zur Testzeit. 1. Auflage.
kartoniert , 124 Seiten
ISBN 3961168962
EAN 9783961168965
Veröffentlicht März 2021
Verlag/Hersteller Diplom.de
Leseprobe öffnen

Auch erhältlich als:

pdf eBook
29,99
39,50 inkl. MwSt.
Lieferbar innerhalb von 3-5 Tagen (Versand mit Deutscher Post/DHL)
Teilen
Beschreibung

Gelernte Klassifikationsverfahren sind nicht sicher, wenn Angreifer gezielte Veränderungen an der Eingabe vornehmen. Obwohl diese Änderungen für den Menschen kaum wahrnehmbar sind, ändert sich die Klassifikation. Um gelernte Modelle in sicherheitskritischen Bereichen anwenden zu können, ist es erforderlich, Methoden zu entwickeln, die Robustheit gegen adversariale Angriffe gewährleisten können. Hier wird eine Übersicht über verschiedene Anwendungsfälle, Angriffe, die daraus entstehenden Problemstellungen, Ansätze zur Verteidigung sowie Gefahren bei der Evaluation dieser gegeben und die Notwendigkeit korrekter Verfahren aufgezeigt.

Hersteller
Diplom.de

-

E-Mail: info@bod.de

Das könnte Sie auch interessieren

Download
10,99
Michael Kölling
Einführung in Java mit Greenfoot
pdf eBook
Download
30,99
Björn Rohles
Mediengestaltung
epub eBook
Download
39,90
Stephan Scheuer
Inside KI
epub eBook
Download
13,99
Michael Kölling
Einführung in Java mit Greenfoot
pdf eBook
Download
30,99
Download
29,99
Johannes C. Hofmeister
Python Alles-in-einem-Band für Dummies
epub eBook
Download
29,99
Robert Gödl
Ubuntu 24.04 LTS Schnelleinstieg
epub eBook
Download
21,99
Wolfgang Jacobsen
Der Sonnensucher. Konrad Wolf
epub eBook
Download
4,99
Ruth Ware
Zero Days
epub eBook
Download
12,99