Kooperation mit der Carl von Ossietzky Universität, Oldenburg: Kollaboratives Maschinelles Lernen für sensible Unternehmensdaten

Collaborative Machine Learning for Data Value Creation (ColDa)

Abbildung: ColDa - Collaborative Machine Learning for Data Value Creation
Credit:

Carl von Ossietzky Universität, Oldenburg

DownloadDownload

Das Projekt „Collaborative Machine Learning for Data Value Creation“ (CoLDa) ist eine dreijährige Kooperation mit der Carl von Ossietzky Universität Oldenburg. Das DLR-Institut für KI-Sicherheit erforscht gemeinsam mit der Universität die praxisnahe Weiterentwicklung von Federated Machine Learning. Das Ziel besteht darin, sensible Unternehmensdaten für KI-Anwendungen nutzbar zu machen, ohne dabei den Datenschutz oder Geschäftsgeheimnisse zu gefährden. Konventionelle ML-Ansätze erfordern die Zentralisierung von Trainingsdaten, was bei datenschutzrechtlichen Bestimmungen oder unternehmensinternen Sicherheitsanforderungen problematisch werden kann.
Federated Learning bietet hier eine Lösung: Anstatt Daten zu zentralisieren, werden lokale Modelle direkt an ihren jeweiligen Standorten trainiert und nur die Modellparameter zu einem globalen Modell aggregiert. Sensible Informationen bleiben dabei stets an ihrem ursprünglichen Ort geschützt.

Beitrag Institut für KI-Sicherheit

Das Institut für KI-Sicherheit fördert und koordiniert gemeinsam mit der Universität Oldenburg die praxisnahe Weiterentwicklung von Federated Machine Learning in zwei kritischen Anwendungsbereichen. Im Bereich der Datenintegration wird untersucht, wie der bisher sehr intensive manuelle Prozess der Verknüpfung heterogener Datensilos durch KI-Unterstützung automatisiert werden kann. Zu diesem Zweck entwickelt das Projektteam ein spezielles Vorgehensmodell, das als Prototyp umgesetzt und evaluiert wird.

Parallel dazu konzentriert sich das Projekt auf die natürliche Sprachverarbeitung (NLP), um Widersprüche in domänenspezifischen Regelungsdokumenten zu erkennen. Dazu werden Regelungsdokumente verschiedener Abteilungen und Standorte genutzt, ohne dass sensible Inhalte wie E-Mails, interne Berichte oder Geschäftsdokumente ihren sicheren Verwaltungsort verlassen müssen. Durch diese dezentrale Verarbeitung können lokale Vokabularien, Satzstrukturen und kontextuelle Zusammenhänge erlernt werden, die in zentral entwickelten Modellen unberücksichtigt bleiben. Ausgewählte NLP-Klassifikationsaufgaben werden prototypisch implementiert und evaluiert, um die Qualitätsverbesserung globaler Modelle zu bewerten.

Beteiligte Institute und Einrichtungen (DLR & extern)

 • DLR Institut für KI-Sicherheit
• Carl von Ossietzky Universität, Oldenburg, Abteilung Wirtschaftsinformatik/VLBA

Kontakt

Dr. Michael Karl

Abteilungsleitung
Deutsches Zentrum für Luft- und Raumfahrt (DLR)
Institut für KI-Sicherheit
Sicherheitskritische Dateninfrastrukturen
Rathausallee 12, 53757 Sankt Augustin