Der global wachsende Bedarf nach Automatisierung bringt stetig größere Codemengen und immer neue Anwendungen künstlicher Intelligenz (KI) mit sich. Fachkompetenzen müssen auch im DLR immer häufiger durch Softwareentwicklung und Datenanalyse ergänzt werden. Dieses "Citizen Development" wird möglich gemacht durch einfach anzuwendende Werkzeuge wie Low Code/No Code-Plattformen und Business Intelligence-Suiten. Teil dieser Entwicklung ist allerdings auch eine wachsende Anzahl von Schwachstellen in Software, die durch den höheren Wiederverwendungsgrad schlimmere Auswirkungen haben. Dazu kommt eine Vergrößerung der Angriffsflächen von Anwendungen und das Entstehen neuartiger Risiken, z.B. durch den Einsatz von KI anstelle von traditionellen regelbasierten Automatisierungslösungen.
Die Gruppe Sichere Softwaretechnik begleitet diese Entwicklung hinsichtlich der Angriffs- und Betriebssicherheit und begreift KI als Quelle von Risiken, aber auch von Chancen. Hier gilt es, die Risiken intelligent zu managen und die Chancen sicher zu nutzen, denn gerade in der Raumfahrt existiert kein Spielraum für Ausfälle und Angriffe.
KI bietet vielfältige Möglichkeiten, Prozesse in der Softwaretechnik sicherer zu gestalten. Wir forschen dazu unter anderem an zuverlässiger Schwachstellenerkennung in Programmcode, Erkennung von Codeklonen, automatischer Typinferenz und der Messung von Codequalität. Gerade wenn Softwareentwicklung als Mittel zum Zweck betrachtet wird, wie im wissenschaftlichen Kontext am DLR, geraten Sicherheitsaspekte in den Hintergrund. Unsere automatischen Lösungen tragen ohne erhöhten zeitlichen Aufwand zur Sicherheit bei. Auch außerhalb der Softwaretechnik kann KI vor allem die Betriebssicherheit verbessern - sie lässt sich nicht ablenken, ist lernfähiger als regelbasierte Systeme und macht keine Flüchtigkeitsfehler. Diese Eigenschaften nutzen wir bei der Entwicklung KI-Anwendungen aus, die die Robustheit von Systemen durch Überwachung und Anomalieerkennung sicherstellen. Der Betrieb von KI-Systemen bringt allerdings auch neue Sicherheitsbedenken mit sich, derer wir uns annehmen. Dazu gehören unter anderem Adversarial Examples, absichtlich manipulierte Eingaben, die bestimmte Vorhersagen erzwingen, aber von Menschen nicht erkennbar sind. Zudem betrachten wir Datenschutzaspekte mit privatsphäreerhaltenden Lernverfahren und untersuchen die allgemeine Informationssicherheit von KI-Systemen.