StartseiteGruppenForumMehrZeitgeist
Web-Site durchsuchen
Diese Seite verwendet Cookies für unsere Dienste, zur Verbesserung unserer Leistungen, für Analytik und (falls Sie nicht eingeloggt sind) für Werbung. Indem Sie LibraryThing nutzen, erklären Sie dass Sie unsere Nutzungsbedingungen und Datenschutzrichtlinie gelesen und verstanden haben. Die Nutzung unserer Webseite und Dienste unterliegt diesen Richtlinien und Geschäftsbedingungen.

Ergebnisse von Google Books

Auf ein Miniaturbild klicken, um zu Google Books zu gelangen.

Lädt ...

Strengthening Deep Neural Networks: Making AI Less Susceptible to Adversarial Trickery

von Katy Warr

MitgliederRezensionenBeliebtheitDurchschnittliche BewertungDiskussionen
11Keine1,727,407KeineKeine
As deep neural networks (DNNs) become increasingly common in real-world applications, the potential to deliberately "fool" them with data that wouldn ?t trick a human presents a new attack vector. This practical book examines real-world scenarios where DNNs ?the algorithms intrinsic to much of AI ?are used daily to process image, audio, and video data. Author Katy Warr considers attack motivations, the risks posed by this adversarial input, and methods for increasing AI robustness to these attacks. If you ?re a data scientist developing DNN algorithms, a security architect interested in how to make AI systems more resilient to attack, or someone fascinated by the differences between artificial and biological perception, this book is for you. Delve into DNNs and discover how they could be tricked by adversarial input Investigate methods used to generate adversarial input capable of fooling DNNs Explore real-world scenarios and model the adversarial threat Evaluate neural network robustness; learn methods to increase resilience of AI systems to adversarial data Examine some ways in which AI might become better at mimicking human perception in years to come… (mehr)
Keine
Lädt ...

Melde dich bei LibraryThing an um herauszufinden, ob du dieses Buch mögen würdest.

Keine aktuelle Diskussion zu diesem Buch.

Keine Rezensionen
keine Rezensionen | Rezension hinzufügen
Du musst dich einloggen, um "Wissenswertes" zu bearbeiten.
Weitere Hilfe gibt es auf der "Wissenswertes"-Hilfe-Seite.
Gebräuchlichster Titel
Originaltitel
Alternative Titel
Ursprüngliches Erscheinungsdatum
Figuren/Charaktere
Wichtige Schauplätze
Wichtige Ereignisse
Zugehörige Filme
Epigraph (Motto/Zitat)
Widmung
Erste Worte
Zitate
Letzte Worte
Hinweis zur Identitätsklärung
Verlagslektoren
Werbezitate von
Originalsprache
Anerkannter DDC/MDS
Anerkannter LCC

Literaturhinweise zu diesem Werk aus externen Quellen.

Wikipedia auf Englisch

Keine

As deep neural networks (DNNs) become increasingly common in real-world applications, the potential to deliberately "fool" them with data that wouldn ?t trick a human presents a new attack vector. This practical book examines real-world scenarios where DNNs ?the algorithms intrinsic to much of AI ?are used daily to process image, audio, and video data. Author Katy Warr considers attack motivations, the risks posed by this adversarial input, and methods for increasing AI robustness to these attacks. If you ?re a data scientist developing DNN algorithms, a security architect interested in how to make AI systems more resilient to attack, or someone fascinated by the differences between artificial and biological perception, this book is for you. Delve into DNNs and discover how they could be tricked by adversarial input Investigate methods used to generate adversarial input capable of fooling DNNs Explore real-world scenarios and model the adversarial threat Evaluate neural network robustness; learn methods to increase resilience of AI systems to adversarial data Examine some ways in which AI might become better at mimicking human perception in years to come

Keine Bibliotheksbeschreibungen gefunden.

Buchbeschreibung
Zusammenfassung in Haiku-Form

Aktuelle Diskussionen

Keine

Beliebte Umschlagbilder

Gespeicherte Links

Bewertung

Durchschnitt: Keine Bewertungen.

Bist das du?

Werde ein LibraryThing-Autor.

 

Über uns | Kontakt/Impressum | LibraryThing.com | Datenschutz/Nutzungsbedingungen | Hilfe/FAQs | Blog | LT-Shop | APIs | TinyCat | Nachlassbibliotheken | Vorab-Rezensenten | Wissenswertes | 205,458,535 Bücher! | Menüleiste: Immer sichtbar