Sicherheit für KI-Trainingsdaten
Im Mittelpunkt des Besuchs der Abgeordneten Julia Höller und Tim Achtermeyer am Institut für KI-Sicherheit in Sankt Augustin stand die Diskussion über sicherheitskritische Dateninfrastrukturen und die wichtige Rolle, die Künstliche Intelligenz dabei spielt.
Neben einem Einblick in die Arbeit und den Aufbau des Instituts haben wir unsere Arbeit sehr anschaulich durch Live-Demonstrationen erlebbar machen können.
Beim Data Poisoning schleusen Angreifer absichtlich manipulierte Daten in ein KI-System ein, um die Aussagen des KI-Modells zu kompromittieren.
Die Forschungen zu Data Poisoning am Beispiel von versteckten Bildern in Bildern, die für das Training von KI verwendet werden, zeigt sehr deutlich, wie wichtig Aspekte der Sicherheit von KI in Bezug auf solche potentiell manipulierten Bilder sind: Wenn z.B. in einem Bild eines STOP-Schildes in den Trainingsdaten ein Vorfahrtsschild verborgen ist, kann dies fatale Folgen für das Training von autonom fahrenden Fahrzeugen im Sinne von Fehlinterpretationen durch die KI haben. Wir entwickeln Methoden, um solche Bilder zu validieren und zu bereinigen, damit die Trainingsdaten immer sauber und sicher sind. Dieses von uns entwickelte Verfahren wird bereits DLR-weit eingesetzt.
Das Training unserer mit KI-Komponenten ausgestatteten Telepräsenzroboter in unserem „Living Lab“ dient in erster Linie dazu, Einblicke in deren Lernverhalten zu gewinnen, die bei einem höheren Reifegrad beliebig skaliert und in die Anwendung gebracht werden können. Im Mittelpunkt stehen die Sicherheit und Zuverlässigkeit von KI-Anwendungen und die Frage, wie Anpassungen und Optimierungen schneller im Betrieb vollzogen werden können.
Ein herzliches Dankeschön an Tim Achtermeyer und Julia Höller für ihren Besuch, ihr großes Interesse an unseren Themen und die guten Gespräche und Diskussionen, die wir miteinander führen konnten. Wir arbeiten weiterhin an Lösungen, die unsere Daten und KI-Systeme sicher machen.