Ein Muss für intelligente Cyber-Physische Systeme

Resilienz

Abbildung: Intelligentes Cyber-Physisches System von Systemen (iCPSoS), Quelle: DLR

Ein Muss für intelligente Cyber-Physische Systeme

Resilienz ist ein Schlüsselkonzept für den Aufbau sicherer Gesamtsysteme. Resiliente Systeme sind so ausgelegt, dass sie im Falle einer böswilligen oder zufälligen Beeinträchtigung selbst reagieren können, um die maximal erreichbare Systemfunktion wiederherzustellen. Das Projekt Resilience of Intelligent Cyber-Physical Systems (kurz: Resilienz) verfolgt einen ganzheitlichen Ansatz, um diese Resilienz zu erreichen. Mit Hilfe von zwei Use Cases (On-board-Avionik- und Human-in-the-Loop) werden Resilienzmechanismen sowohl auf algorithmischer als auch auf Systemebene implementiert, integriert und getestet.

Das Institut für KI-Sicherheit leitet eines der Hauptarbeitspakete: Engineering resilient AI-based iCPSoS. Gemeinsam mit dem Institut für Flugsystemtechnik übernehmen wir außerdem das übergeordnete Projektmanagement. Die Laufzeit des Projekts beträgt drei Jahre, von 2022 bis 2024.

Ein resilientes KI-basiertes intelligentes Cyber-Physisches System von Systemen (iCPSoS) zeichnet sich dadurch aus, dass es auch in untypischen Situationen, bei (Teil-)Ausfällen technischer Komponenten oder bei Angriffen auf das System einsatzfähig bleibt, d.h. zentrale Systemfunktionen bleiben erhalten. Wenn eine vollständige Funktionalität nicht mehr gegeben ist, kann zumindest eine kontrollierte sukzessive Degradation der Funktionalität gewährleistet werden, beispielsweise durch den Verzicht auf Effizienz oder Integration zusätzlicher Ressourcen bei gleichzeitiger Gewährleistung uneingeschränkter Sicherheit.

Beitrag des Instituts für KI-Sicherheit

Um diese Ziele zu erreichen, legt das Institut für KI-Sicherheit den Fokus auf zwei Themenfelder (Teilarbeitspakete):

  • Entwicklung eines Ansatzes zur Formalisierung der Operational Design Domain (ODD). Dabei ist die ODD als Referenzumgebung bzw. Referenzsystem für ein iCPSoS zu verstehen, aus dem sich Anforderungen bzw. relevante Situationen ableiten lassen, die von einem System erfüllt und bewältigt werden müssen. Unser Ziel ist es, eine Methodik zur Erstellung des ODD-Konzepts zu entwickeln, die auf andere Domänen übertragen werden kann, in denen autonome Systeme eingesetzt werden. Die ODD definiert die Grenze für die Einrichtung sicherer und geschützter Testumgebungen mit einem höherem Automatisierungsgrad.
  • Ableitung von Anforderungen an KI-basierte Komponenten im Kontext von Sicherheitsnachweisen und Ansätzen von Safety/Security-by-Design. Diese Anforderungen werden benötigt, um zukünftig vertrauenswürdige und sicherheitskritische Systeme zu entwickeln.

Darüber hinaus arbeitet unser Institut an drei weiteren Teilarbeitspaketen:

  • Anwendung für eine resiliente Avionik Architektur für städtische Mobilität per Flugzeug
  • Vorstellung eines Methodenportfolios für den Nachweis von Sicherheit und für Safety/Security-by-Design
  • Beispielhafte Anwendung für ausgewählte KI-Komponenten und Nachbau ausgewählter Elemente

Alle Hauptarbeitspakete des Projekts und die beteiligten DLR-Institute

  • Technologieintegration und -demonstration: Institut für Flugsystemtechnik
  • Entwicklung eines widerstandsfähigen KI-basierten iCPSoS: Institut für KI-Sicherheit
  • Robustheits- und Laufzeitüberwachung: Institut für Datenwissenschaften, Institut für Softwaretechnologie
  • Reaktion und Wiederherstellung: Institut für Flugsystemtechnik, Institut für Softwaretechnik
  • Human-in-the-Loop-Resilienz: Institut für Flugführung

Zukünftige cyber-physikalische Systeme (CPS) sind intelligent, hochgradig vernetzt und autonom. Sie nutzen fortschrittliche Technologien wie KI-gestützte Entscheidungsprozesse und maschinelles Lernen, um ihre Wahrnehmung zu erweitern. Der Weg zu dieser Innovation ist jedoch mit erheblichen Hindernissen verbunden. Der Bruch mit früheren Praktiken löst viele der Fallstricke der bisherigen Prozesszentrierung. Um trotz steigender Systemkomplexität einen robusten Betrieb mit minimierten Sicherheitsrisiken zu gewährleisten, muss unser Verständnis von Safety und Security aber einen Paradigmenwechsel vollziehen. Dazu befasst sich das Institut für KI-Sicherheit intensiv mit der Beschreibung des Umfelds für den Einsatz eines KI-Systems sowie der Entwicklung des KI-Systems in einem transparenten und modularen Ansatz.


Beteiligte DLR Institute und Einrichtungen

Kontakt

Dr.-Ing. Sven Hallerbach

Abteilungsleitung
Deutsches Zentrum für Luft- und Raumfahrt (DLR)
Institut für KI-Sicherheit
KI Engineering
Wilhelm-Runge-Straße 10, 89081 Ulm

Karoline Bischof

Referentin Öffentlichkeitsarbeit
Deutsches Zentrum für Luft- und Raumfahrt (DLR)
Institut für KI-Sicherheit
Geschäftsfeldentwicklung & Strategie
Rathausallee 12, 53757 Sankt Augustin