Softwarekonferenz für Parallel Programming,
Concurrency, HPC und Multicore-Systeme
Heidelberg, Print Media Academy, 29.-31. März 2017

parallel 2017 » Programm »

// Die neuen Interfaces in MPI 3.0 und 3.1

Mit MPI 3.0 und 3.1 (Message Passing Interface) kamen viele neue Interfaces hinzu, um parallele Anwendungen skalierender und effizienter programmieren zu können. Das MPI Shared Memory Interface ist für viele Teilnehmer der Veranstaltung ein interessantes Neuland und kann helfen, signifikant Speicherplatz zu sparen. Wozu benötigt man die neuen Non-blocking Collectives oder wie kann man überlange Nachrichten versenden? Weitere Themen sind Ergänzungen zur One-sided Communication, effiziente Nachbarschaftskommunikation in virtuellen Topologien, Konsistenz von Fortran und MPI und das neue mpi_f08-Modul sowie das neue Matching Probe für Multithreaded-MPI-Prozesse.

Vorkenntnisse
Grundkenntnisse der Parallelisierung mittels Message Passing (MPI)

Lernziele
Die kurzen Einführungen in die neuesten Features von MPI 3.0 und 3.1 geben Teilnehmern ein Grundwissen, damit sie entscheiden können, ob der Einsatz dieser neuen Methoden für sie oder ihr Unternehmen Vorteile verspricht.


// Dr. Rolf Rabenseifner Dr. Rolf Rabenseifner

leitet die Abteilung Parallel Computing – Training and Application Services am High-Performance Computing-Center Stuttgart (HLRS). Seit 2012 ist er auch Direktor des GCS PRACE Advanced Training Center (GCS-PATC). Er ist Mitglied des MPI-Standardisierungsforums und war federführend an der Entwicklung des neuen MPI Fortran Interfaces beteiligt. In Workshops und Seasonal Schools lehrt er parallele Programmiermodelle an vielen Universitäten und Forschungseinrichtungen.