„Hohes Sicherheitsniveau für künstliche Intelligenz unerlässlich“
- DLR-Forschung betrachtet nicht nur Einzelaspekte, sondern hat den gesamten Lebenszyklus einer KI im Blick.
- Automatisiertes Fahren oder Fliegen und die Robotik brauchen fortschrittliche KI-Systeme.
- Schwerpunkte: Digitalisierung, Sicherheit, künstliche Intelligenz
„Eine sichere KI ist wichtig, weil wir KI-basierte Systeme zukünftig in allen Lebensbereichen finden werden. Dies schließt auch Bereiche ein, in denen hohe Sicherheitsanforderungen erfüllt werden müssen“, sagt Prof. Frank Köster, Gründungsdirektor des Instituts für KI-Sicherheit im Deutschen Zentrum für Luft- und Raumfahrt (DLR). In der vergangenen Woche hatten sich Vertreterinnen und Vertreter von fast 30 Staaten sowie von Technologieunternehmen in England getroffen, um über die Sicherheit von künstlicher Intelligenz (KI) zu beraten. In einer gemeinsamen Erklärung bekannten sie sich unter anderem zur Zusammenarbeit. Außerdem wurde die Gründung eines „AI Safety Institute“ angekündigt.
Die Anforderungen an KI-Systeme sind auch im DLR ein Thema. Das Institut für KI-Sicherheit wurde vor etwa einem Jahr offiziell eröffnet. Die Schlüsseltechnologie künstliche Intelligenz ist ohne Sicherheitsaspekte kaum denkbar: „Besonders sichtbar ist dies bei fortschrittlichen Assistenz- und Automatisierungsfunktionen – wie zum Beispiel beim automatisierten Fahren und Fliegen sowie in der Robotik. Aber auch in Bereichen, in denen sensible Daten über Personen oder aus Unternehmen verarbeitet werden, ist ein hohes Sicherheitsniveau unerlässlich. Darüber hinaus ist es grundsätzlich wichtig, dass wir KI stets so einsetzen, dass klare Mehrwerte im Sinne der Gesellschaft entstehen und Risiken stets angemessen gemindert werden können“, ergänzt Frank Köster.
Den gesamten Lebenszyklus der KI berücksichtigen
„Die größte Herausforderung in der KI-Sicherheit sehe ich im Moment darin, dass wir Sicherheit nicht nur in einem einzelnen Bestandteil eines Systems generieren. Wir müssen den gesamten Lebenszyklus einer KI sowie deren Einbettung berücksichtigen“, sagt Frank Köster. Dies schließt das Datenmanagement für Training und Validierung sowie die operative Datenversorgung mit ein. So entsteht ein vollumfänglicher Blick auf Risiken und deren mögliche negative Wirkungen. Die Forschenden identifizieren gleichzeitig unterschiedliche Ansätze zur Verminderung von Risiken. „Gerade als DLR sind wir hierfür sehr gut aufgestellt, da wir unser gesamtes Wissen zum Aufbau sicherheitskritischer Lösungen im Institut für KI-Sicherheit weiterentwickeln. Den Begriff Sicherheit nutzen wir im hier Sinne von Safety und Security.“ Das bedeutet, dass sowohl die Betriebssicherheit (Safety) als auch der Schutz vor äußeren Angriffen (Security) berücksichtigt werden.
Aktuell arbeitet das DLR-Institut für KI-Sicherheit zum Beispiel daran, dass Assistenz- und Automatisierungssysteme für bodengebundenen Verkehr und Luftfahrt-Anwendungen ihre Umgebung richtig wahrnehmen. Das funktioniert über die Absicherung von KI-Bausteinen zur Objekterkennung und Objektklassifikation – ein unverzichtbarer Schritt, damit eine KI ein angemessenes Verhalten planen kann. Zudem achten die Wissenschaftlerinnen und Wissenschaftler auf die Anschlussfähigkeit der Methoden zu etablierten Standards, um den Transfer in die Wirtschaft zu fördern.
In der Projektfamilie GAIA-X 4 Future Mobility und auch in Catena-X konzentriert sich das Institut auf dezentral organisierte Daten- und Dienste-Ökosysteme. Diese werden in Zukunft eine wichtige operative Umgebung für verschiedenen KI-basierte Anwendungen sein. Dazu gehört etwa die zustandsbasierte Instandhaltung von Fahrzeugen und Maschinen. Schwerpunkte der Forschung sind die Herkunft von Daten ebenso wie der Schutz personenbezogener und sensibler Daten. Außerdem befasst sich das Institut mit ethischen, rechtlichen und sozialen Aspekten der Digitalisierung und insbesondere KI.
KI-Risiken im Zusammenhang mit gesellschaftlichen Auswirkungen
„Die Erklärung des AI Safety Summit deutet in eine wichtige Richtung, denn sie bringt KI-Risiken in Zusammenhang mit ihren möglichen gesellschaftlichen Auswirkungen. Ein Verständnis der Risiken ist von hohem Wert, da nur so rationale Entscheidungen zum Einsatz oder zur Regulation von KI möglich werden“, sagt Frank Köster. „Die Erklärung zeigt auch, dass Ansätze zur Handhabung von KI-Sicherheit je nach nationalen Gegebenheiten und rechtlichen Rahmenbedingungen unterschiedlich sein können. Dies ist durchaus wichtig, denn wir stehen bei der Nutzung von KI immer noch am Anfang. Mit unterschiedlichen Herangehensweisen können Gesellschaften schneller lernen, wie sie mit einer KI umgehen können – wenn Erkenntnisse von Anfang an mit anderen geteilt werden.“
Verwandte Links
Forschung an einer Schlüsseltechnologie
Das DLR-Institut für KI-Sicherheit hat Standorte in Sankt Augustin und Ulm. Derzeit 70 Mitarbeiterinnen und Mitarbeiter erforschen und entwickeln KI-bezogene Methoden, Prozesse, Algorithmen, Technologien und Ausführungs- beziehungsweise Systemumgebungen. Hierbei betrachtet das Institut auch die Möglichkeiten innovativer Rechenmethoden, wie sie im Bereich des Quantencomputing entstehen. Die Organisation, Speicherung und der Austausch sicherheitsrelevanter und sensibler Daten in verteilten Dateninfrastrukturen sind dafür eine wichtige Grundlage. Datensouveränität, Transparenz und die vertrauensvolle verteilte Nutzung von Daten sind in diesem Zusammenhang wichtige Forschungs- und Handlungsfelder.
Das Institut, das aktuell weiter aufgebaut wird, leistet Beiträge zur Gewährleistung von Betriebs- und Angriffssicherheit für KI-basierte Lösungen in ambitionierten Anwendungsklassen. Dazu zählen die Luft- und Raumfahrt, Verkehr, Energie sowie weitere für den Wirtschafts- und Wissenschaftsstandort Deutschland wichtige Anwendungsbereiche.