In den kommenden Jahren wird erwartet, dass globale Experimente in den Bereichen Teilchenphysik, Astroteilchenphysik und Astrophysik noch nie dagewesene Datenmengen erzeugen, die die Exabyte-Skala pro Jahr erreichen. Dies bringt erhebliche Herausforderungen und Möglichkeiten bei der Datenverarbeitung, -speicherung und -analyse. Beispiele sind die aktualisierten Experimente am Large Hadron Collider (LHC) am CERN, die Experimente an der FAIR Anlage und das Square Kilometre Array (SKA) auf dem Gebiet der Gammastrahlenastronomie. Im Rahmen des Projekts werden neue Strategien für die Datenverteilung, deren Verarbeitung und der Integration von Computing- Ressourcen für die Datenanalyse, entwickelt. In der Vergangenheit haben sich die meisten Experimente auf maßgeschneiderte Computing-Ressourcen verlassen.
Aufgrund des dramatischen Anstiegs der Anforderungen ist jedoch ein Übergang zu breiter verfügbaren Rechenressourcen, wie sie beispielsweise von den Zentren der Gauß Allianz, den Tier-2-NHR-Zentren und Cloud-basierten Plattformen zur Verfügung gestellt werden, unausweichlich. Dieser Übergang zu einer heterogenen Datenverarbeitungsinfrastruktur erfordert daher innovative Entwicklungen, um einen effizienten und standardisierten Datenzugriff und -verarbeitung über Rechenzentren hinweg zu ermöglichen. Diese Entwicklungen basieren sowohl auf Vorarbeiten der Antragsteller, als auch auf Industriestandards, z.B. bei Filesystemen, Datentransferprotokollen. Ziel sind Werkzeuge, die eine einfache Nutzung und Wartung, auch an den oben genannten Zentren, ermöglichen. Darüber hinaus sollen sie eine breite Nutzung auch in anderen Forschungsbereichen von ErUM und darüber hinaus erlauben. Das Projekt wird so sicherstellen, dass die Physikerinnen und Physiker in Deutschland auch in der Zukunft die riesigen Datenmengen der Experimente voll ausschöpfen und weiterhin internationale Spitzenforschung betreiben können.
Projektwebsite: www.fuse-storage.de