Softwarekonferenz für parallele, nebenläufige
und asynchrone Programmierung und HPC
Heidelberg, Print Media Academy, 6.-8. März 2018

parallel 2018 » Programm »

// Multi-GPU-Computing: Eins, zwei, drei, ganz viele

Beim Multi-GPU-Computing werden mehrere GPUs von einer CPU kontrolliert. Dieses geschieht meistens, um die Performance zu steigern und die Energieeffizienz zu verbessern. Doch gibt es ein paar Fallstricke, die den Einsatz erschweren können.

In diesem Vortrag werden die Vor- und Nachteile des Multi-GPU-Computings herausgearbeitet. Zuerst werden die Grundlagen des GPU-Computings kurz vorgestellt und die Besonderheiten bei der Parallelisierung und Optimierung erklärt. Anhand eines Beispiels wird gezeigt, wie Multi-GPU-Computing mit den Frameworks CUDA, OpenCL und C++ AMP realisiert wird. Anschließend werden typische Methoden für die Partitionierung von Daten diskutiert und Lösungen vorgestellt.

Vorkenntnisse
Erste Grundkenntnisse über GPU-Computing sind fürs Verstehen notwendig.

Lernziele
Der Hörer kennt anschließend die Lösungen für die typischen Probleme beim Einsatz von mehreren GPUs/Multi-GPU.


// Jörn Dinkla Jörn Dinkla

arbeitet freiberuflich als Softwareentwickler und Berater. Seine Schwerpunkte sind parallele und verteilte Systeme, GPU-Computing und Programmiersprachen. Für den Manning-Verlag war er technischer Editor des Buchs "OpenCL in Action".