9. November 2020

Unterwasser, aus der Luft, an Land – Besserer Überblick durch Echtzeit-Lagebild

  • DLR generiert Echtzeit-Lagebild für Szenarien auf dem Wasser und an Land.
  • Das Lagebild soll Rettungskräften, Behörden und anderen Akteuren im Hafen die Arbeit erleichtern.
  • Schwerpunkte: Sicherheit, Digitalisierung

Ein Boot mit drei Personen an Bord läuft im Fischereihafen ein. In der Luft fliegen Drohnen, um das Geschehen aus der Vogelperspektive zu beobachten. Auf dem Dach des Deutschen Zentrums für Luft und Raumfahrt (DLR) in Bremerhaven installierte Kameras nehmen das Bild von ihrem erhöhten Standort aus auf. Das DLR generiert bei Versuchen im Oktober 2020 ein umfängliches Bild einer Gefahrensituation auf dem Wasser. Es soll Rettungskräften, Behörden und anderen Akteuren im Hafen durch zusätzliche Informationen zur aktuellen Lage die Arbeit erleichtern. Viele Daten unterschiedlicher Messinstrumente kommen im neu entwickelten System im Projekt MARLIN (Maritime Awareness Realtime Instrumentation Network) zusammen, um ein Echtzeit-Lagebild für verschiedene Szenarien sowohl auf dem Wasser als auch landseitig zu generieren. Sicherheitsrelevante Objekte können so georeferenziert erfasst und Gefahrensituationen zukünftig vorausschauend eingeschätzt werden.

Seenotszenario als realistischer Testfall

„Diese Demonstration im Projekt MARLIN ist ein erster Schritt, ein komplexes Lagebild aus der Fusion verschiedener Geo- und Sensordaten zu erzeugen. Hierfür haben wir uns ein möglichst realitätsnahes Gefahrenszenario überlegt“, erklärt Michael Langerbeins, kommissarischer Direktor des DLR-Instituts für den Schutz maritimer Infrastrukturen.

Auf dem Schlauchboot wird mit Nebelfackeln ein Brand simuliert. Danach gehen mehrere Kisten über Bord. Einige treiben auf dem Wasser, andere sinken zum Grund. Ein Besatzungsmitglied, in diesem Fall eine Seenotrettungspuppe, fällt ins Wasser. Fest installierte sowie mobile Kameras an einem Bus zeichnen Fotos und Videos auf. „Der Bus hat den Vorteil, dass wir damit möglichst nah an unterschiedliche Einsatzorte gelangen können. Die Suche von Personen in Seenot wird mit den installierten Sensorsystemen vom Ufer unterstützt “, erklärt Dr. David Heuskin, Leiter der Gruppe Technologieerprobungssysteme. Es kommen verschiedene Kamerasysteme zum Einsatz. Wärmebildkameras können Menschen auch bei schlechter Sicht gut darstellen, solange deren Körpertemperatur noch nicht zu stark gefallen ist. Kameras mit aktiver Laserbeleuchtung, sogenannte Range-Gated-Systeme, können durch den Nebel sehen. Damit sind kältere Personen oder Objekte, wie die Rettungspuppe oder Treibgut, gut auffindbar. Zusätzlich liefern auf Drohnen installierte Kameras einen Überblick über die Gefahrenzone und die Umgebung. 

Echtzeit-Lagebild liefert Überblick über Gefahrensituation

Alle Messdaten fließen dann in einem Lagebild zusammen. Auch die aktuellen AIS-Signale, die Schiffe zur ihrer Positionsangabe aussenden, werden auf einer Karte dargestellt. Algorithmen berechnen die Positionen des Bootes aus den Bilddaten und gleichen diese mit den anderen Daten ab. Wird das Boot plötzlich durch unerwarteten Nebel unsichtbar, gibt ein Algorithmus eine Warnung aus. Zeit, im Kontrollraum genauer hinzusehen. Vom sogenannten Lageraum aus haben die Wissenschaftlerinnen und Wissenschaftler einen umfänglichen Überblick über die Situation. Von hier können sie Instrumente steuern und weitere hinzuschalten. Spätere Nutzer wie Behörden und Organisationen mit Sicherheitsaufgaben können so die Lage sondieren und ihren Rettungskräften beispielsweise den besten Weg zum Einsatzort mitteilen. Das Lagebild wird auch auf mobilen Endgeräten abrufbar sein. Somit können Einsatzkräfte von verschiedenen Orten die gleichen Informationen erhalten und koordiniert vorgehen.

Im Nachgang wird das Hafenbecken durch die DLR-Seekatze vermessen. Das Sonar des autonomen Unterwasserfahrzeugs soll verlorene Ladung aufspüren oder Beschädigungen im Hafenbecken finden. Detaillierte Aufnahmen über auffällige Stellen liefert ein kleineres, ferngesteuertes Tauchfahrzeug.

Modulares System erlaubt Flexibilität

Die Demonstration im Fischereihafen Bremerhavens zeigte, dass alle Systeme in ein gemeinsames, modulares und offenes Echtzeit-Lagebild integriert werden konnten. Die Modularität soll es später auch erlauben, dass Behörden und Organisationen mit Sicherheitsaufgaben, also Seenotretter, Polizei oder Feuerwehr, das DLR-Lagebild als zusätzliche Komponente in ihre bisher genutzten Systeme integrieren können. Auch sollen zukünftig weitere Messsysteme von Partnern integriert werden. Dass dies funktioniert, zeigte beispielhaft die Einbindung des drohnenbasierten Kamerasystems MACS (Modular Aerial Camera System) vom DLR-Institut für Optische Sensorsysteme in Berlin. Es lieferte in einem vorhergehenden Versuch Luftbilddaten des Einsatzortes. Diese konnten im Lagebild in Bremerhaven angezeigt und zur Situationsanalyse genutzt werden.

 „Für uns war es ein sehr erfolgreicher Tag. Zu sehen, wie die Daten all unserer Forschungsanlagen in unserem Lageraum zusammenfließen, hat uns in unserer Arbeit einen großen Schritt weitergebracht. Wir sind sehr zufrieden“, resümiert Heuskin.

Im nächsten Schritt sollen intelligente Algorithmen dabei helfen, Daten weiter zu fusionieren und auch mögliche Entwicklungen der beobachteten Situation vorauszusagen. Gefahrensituationen sollen erkannt werden, bevor sie überhaupt entstehen können.

2022 ist eine weitere Demonstration in Zusammenarbeit mit Behörden und Organisationen mit Sicherheitsaufgaben sowie Hafenbetreibern geplant.

Verwandte Nachrichten

Kontakt

Jana Hoidis

Kommunikation Bremen, Bremerhaven, Hamburg, Oldenburg, Geesthacht
Deutsches Zentrum für Luft- und Raumfahrt (DLR)
Kommunikation
Am Fallturm 9, 28359 Bremen
Tel: +49 421 24420-1908

Dr.-Ing. David Heuskin

Deutsches Zentrum für Luft- und Raumfahrt (DLR)
Institut für den Schutz maritimer Infrastrukturen
Fischkai 1, 27572 Bremerhaven

Dr. rer. nat. Maurice Stephan

Deutsches Zentrum für Luft- und Raumfahrt (DLR)
Institut für den Schutz maritimer Infrastrukturen
Fischkai 1, 27572 Bremerhaven