Praxisbericht: HPC-Storage für einen GPU-Cluster

Beim High-Performance-Computing trifft häufig aktuellste Hardware und viel Perfomance auf Nutzer, die eigentlich noch viel mehr davon brauchen. Das führt regelmäßig zu Herausforderungen in Netzwerk und Storage – gerade wenn letzterer zentralisiert aufgebaut sein muss und die Clients voll mit GPUs sind.

Wie man einen solchen zentralisierten Speicher aufbauen kann, warum wir dabei auf 200-Gigabit-Ethernet statt auf Infiniband oder FibreChannel setzen und wie HPC-Dateisysteme wie BeeGFS oder LustreFS funktionieren, das möchte ich anhand eines konkreten Kundenprojekts Schicht für Schicht beschreiben.

Vorkenntnisse

Die Besucher brauchen nicht notwendigerweise besondere Vorkenntnisse. Mein Ziel ist es, alle mitzunehmen

Lernziele

Die Besucher wissen, wie ein HPC-Cluster funktioniert und was dessen Besonderheiten gegenüber einem "normalen" Cluster sind. Sie verstehen, wie ein HPC-Dateisystem aufgebaut ist und welche Parameter bei der Konzeptionierung relevant sind.

Speaker

 

Daniel Menzel
Daniel Menzel ist Geschäftsführer der Menzel IT GmbH aus Berlin, einem IT-Unternehmen, das sich auf Server-Cluster auf Open-Source-Basis spezialisiert hat. Dazu zählen einerseits HPC-Cluster für die Forschung und andererseits Storage-, Cloud- und Virtualisierungscluster für Business & Enterprise.

S2N-Konferenz-Newsletter

Sie möchten über die S2N
auf dem Laufenden gehalten werden?

 

Anmelden