Abwehrspiel: Was können wir gegen Adversarial Examples tun?
Software für Maschinelles Lernen ist für bestimmte Angriffe anfällig: So können künstlich veränderte Eingabedaten zum Versagen des zugrunde liegenden Modells führen. Wir stellen Techniken zur Entwicklung von adversarialer Robustheit vor.