Softwarekonferenz für parallele, nebenläufige
und asynchrone Programmierung und HPC
Heidelberg, Print Media Academy, 6.-8. März 2018

// Den HPC-Boliden unter die Softwarehaube geschaut: Ein Blick auf Struktur und Motor von MPI-Bibliotheken

Hochleistungsrechnen auf HPC-Clustern und Supercomputern gilt als Formel 1 der Parallelverarbeitung. Stets sind es Kommunikationsbibliotheken nach dem Message-Passing Interface Standard (MPI), die diese parallelen Berechnungen softwareseitig vorantreiben.

In diesem Vortrag soll ein Blick unter die Haube dieser Bibliotheken geworfen werden, um sowohl technisches Verständnis als auch Begeisterung für diesen speziellen Teil der Systemsoftware zu wecken, an den, ähnlich wie an einen Betriebssystemkern, hohe Anforderungen an Ressourceneffizienz und Reaktionsvermögen gestellt werden.

Der Vortrag geht dabei auf verschiedene Ansätze und Lösungen ein, wobei aber insbesondere jene Konzepte vorgestellt werden, die es auch den bekannten Bibliotheken MPICH und Open MPI ermöglichen, in der Formel 1 der Parallelverarbeitung bestehen zu können.

Vorkenntnisse
Vorwissen ist kaum von Nöten. Interesse an HPC als Königsklasse der Parallelverarbeitung vorausgesetzt.

Lernziele
Der Vortrag soll einen Eindruck davon vermitteln, was unter der Haube einer MPI-Bibliothek zu leisten ist, um Parallelverarbeitung auf Hoch- und Höchstleistungsrechnern überhaupt betreiben zu können. Oder, um beim Formel-1-Bild zu bleiben: Es geht um die Vermittlung von Faszination und Begeisterung – nicht um die Vermittlung von Fahrfähigkeiten.


// Dr.-Ing. Carsten Clauß Dr.-Ing. Carsten Clauß

war langjähriger Mitarbeiter am Lehrstuhl für Betriebssysteme der RWTH Aachen University und forschte dort im Bereich des Message-Passing für Manycore-Systeme. Seit 2013 ist er Mitarbeiter bei der ParTec Cluster Competence Center GmbH und arbeitet dort insbesondere an der Weiterentwicklung von ParaStation MPI.