HSM & Cluster FS 2025: EOC-Konferenz für intelligentes Datenmanagement
Vom 23. bis 25. Juni veranstaltete das EOC die 11. Ausgabe der „HSM & Cluster FS“-Konferenz auf dem Gut Ulrichshusen an der Mecklenburger Seenplatte. 80 Fachleute nutzten die Möglichkeit sich über ihre Erfahrungen und die neuesten Entwicklungen im Bereich des hierarchischen Speichermanagements und der Cluster-Dateisysteme auszutauschen. Seit ihrer Premiere im Jahr 2003 hat sich die Konferenz als wichtigste Plattform ihrer Art im deutschsprachigen Raum etabliert.



In unserem Alltag werden täglich riesige Mengen an Daten erfasst und verarbeitet - oft ohne, dass wir es bewusst wahrnehmen. Hinter vielen Anwendungen stehen komplexe Systeme, die sicherstellen, dass Daten zuverlässig gespeichert, schnell abrufbar und effizient nutzbar sind. Die Technik hierfür - also die Architektur und Infrastruktur - bleibt dabei meist unsichtbar, obwohl sie eine entscheidende Rolle spielt.
Genau hier setzt die Konferenz „HSM & Cluster FS 2025“ an, die vom EOC organisiert wurde. Bereits seit über 20 Jahren bringt diese Veranstaltungsreihe Experten aus Wissenschaft, Industrie und Dienstleistungssektor zusammen, um gemeinsam über Herausforderungen und Lösungen im Bereich der Datenspeicherung und -verarbeitung zu diskutieren.
In diesem Jahr kamen rund 40 Unternehmen und Forschungseinrichtungen zusammen, um sich über zwei besonders wichtige Themen auszutauschen: hierarchisches Speichermanagement (HSM) und Cluster-Dateisysteme. Beide Technologien helfen dabei, große Datenmengen - oft im Umfang von Petabytes - so zu verwalten, dass sie genau dann verfügbar sind, wenn sie gebraucht werden, und zwar am richtigen Ort und mit der nötigen Geschwindigkeit. Das ist beispielsweise entscheidend, wenn Hochleistungsrechner riesige Datensätze analysieren, etwa beim Training von KI-Modellen oder bei der Auswertung von Satellitenbildern.
In Fachvorträgen diskutierten die Teilnehmer unter anderem folgende Fragen:
- Wie lassen sich große Datenmengen langfristig sichern, ohne dass sie schwer zugänglich werden?
- Welche Speichertechnologien sind heute und in Zukunft besonders effizient, sicher und energiesparend - besonders für Daten, die oft („heiß“), gelegentlich („warm“) oder selten („kalt“) benötigt werden?
- Wie kann man riesige Datenmanagementsysteme modernisieren, ohne den laufenden Betrieb zu stören?
- Welche Anforderungen müssen Schnittstellen moderner Datenmanagementsysteme erfüllen, damit sie sowohl technisch leistungsfähig als auch nutzerfreundlich sind?
- Welche Dateisysteme eignen sich besonders gut für Hochleistungsrechner, etwa bei der Verarbeitung von KI-Trainingsdaten?
- Wie sollte modernes Forschungsdatenmanagement konzipiert sein, das Datenqualität und Benutzerfreundlichkeit verbindet?
Einen Einblick in ihre produktiven Datenmanagement-Lösungen gaben dabei unter anderem die TU Dresden, das Leibniz-Institut für Atmosphärenphysik, das Alfred-Wegener-Institut, das Max-Planck-Institut für Psycholinguistik und das EOC.
Relevant sind derartige Systeme jedoch nicht nur im Kontext von Forschungsdaten: Auch im Alltag profitieren wir von solchen Technologien - zum Beispiel, wenn wir Filme über Streaming-Dienste abrufen oder wenn die Rentenversicherung unsere Daten sicher verwaltet.
Zum besten Vortrag der Konferenz wurde „Artgerechte Archivierung eiskalter Daten: Von OHSM zu ScoutAM“ von Dr. Malte Thoma gewählt. In seinem Vortrag berichtete er über die Einführung einer neuen Archivierungssoftware für die heterogenen Forschungsdaten des Alfred-Wegener-Instituts. Aus Sicht eines Systemadministrators verglich er den Funktionsumfang und die Bedienbarkeit der neuen Lösung mit der des Vorgängersystems. Außerdem zeigte er auf, wie wichtig die Wahl geeigneter Speicherhardware ist, um maximalen Datendurchsatz im Systems erreichen zu können.
Das EOC entwickelt und betreibt moderne Infrastrukturen für die Forschung, darunter das Deutsche Satellitendatenarchiv oder die Plattform terrabyte. Diese Systeme speichern, verwalten und verarbeiten riesige Datenmengen - und setzen dabei maßgeblich auf Technologien wie HSM und Cluster-Dateisysteme. So wird sichergestellt, dass wissenschaftliche Daten langfristig verfügbar, gut organisiert und optimal nutzbar sind.