Was sind Adversarial Examples?
Feindliche Angriffe beim maschinellen Lernen zielen darauf ab, Ausfälle in der Funktionalität der Modelle zu verursachen. Dieser Blogpost beschreibt die sogenannten „Adversarial Examples“, die fehlerhafte Vorhersagen neuronaler Netze verursachen.