Linara Adilova ist wissenschaftliche Mitarbeiterin am Fraunhofer IAIS im Bereich KI-Absicherung, mit dem Forschungsschwerpunkt über die theoretische Grundlagen des Deep Learning. Dabei liegt der Schwerpunkt ihrer Projektarbeit in der Produktion von autonomen Fahrsystemen.
Die datengesteuerte Sensorinterpretation beim autonomen Fahren kann manchmal zu sehr unplausiblen Vorhersagen führen. Ein teils von Menschen entworfener, teils gelernter Regelsatz kann bestehende tiefe neuronale Netze, die Low-Level-Sensorinformationen verarbeiten, zuverlässig machen.
Mehr lesen
Software für Maschinelles Lernen ist für bestimmte Angriffe anfällig: So können künstlich veränderte Eingabedaten zum Versagen des zugrunde liegenden Modells führen. Wir stellen Techniken zur Entwicklung von adversarialer Robustheit vor.
Mehr lesen
Feindliche Angriffe beim maschinellen Lernen zielen darauf ab, Ausfälle in der Funktionalität der Modelle zu verursachen. Dieser Blogpost beschreibt die sogenannten „Adversarial Examples“, die fehlerhafte Vorhersagen neuronaler Netze verursachen.
Mehr lesen
Publish or Perish? Wissenschaft zum Maschinellen Lernen unterliegt einem hohen Publikationsdruck. ML-Forschung kann hier von einer Adaption des Slow Science-Ansatzes profitieren, der mehr Zeit für und Konzentration auf inhaltliche Forschungstätigkeit legt.
Mehr lesen