parallel 2014

Softwarekonferenz für Parallel Programming,
Concurrency und Multicore-Systeme - Karlsruhe, IHK, 5.-7. Mai 2014

Softwarekonferenz für Parallel Programming,
Concurrency und Multicore-Systeme
Karlsruhe, IHK, 5.-7. Mai 2014

parallel 2014 » Agenda »

// Strukturiertes paralleles Programmieren: Entwurfsmuster für effiziente parallele Software

Entwurfsmuster haben sich als Werkzeug in der Softwareentwicklung etabliert. Sie bieten sowohl Schablonen zur Lösung von häufig auftretenden Problemen in der Software-Architektur als auch deren Implementierung. In unserem Vortrag wollen wir zeigen, dass Entwurfsmuster auch bei der Entwicklung paralleler Software eingesetzt werden können, um die Implementierung paralleler Software zu vereinfachen und die Skalierbarkeit und Effizienz des resultierenden Codes verbessern. Dazu stellen wir eine Reihe paralleler Entwurfsmuster zur strukturierten parallelen Programmierung vor. Diese werden anhand von Beispielen in C/C++ in den Programmiermodellen von Intel Cilk Plus, Intel Threading Building Blocks und OpenMP diskutiert.

// Referenten

// Dr. Ing. Michael Klemm Dr. Ing. Michael Klemm

ist Teil der Intel Software and Services Group und arbeitet in der Developer Relations Division mit Fokus auf Höchstleistungsrechnen. Michael Klemm promovierte im Jahr 2008 an der Friedrich-Alexander-Universität Erlangen-Nürnberg mit dem Schwerpunkt auf Compiler und Laufzeitsysteme für verteilte Rechnerstrukturen. Seine Interessensgebiete umfassen Compilerbau, Design paralleler Programmiersprachen, effiziente parallele Programmierung sowie Performance-Analyse und Performance-Optimierung. Michael Klemm arbeitet im OpenMP Language Committee an unterschiedlichsten Fragestellungen und leitet die Projektgruppe zur Entwicklung von Fehlerbehandlungsmechanismen für OpenMP.

// Christian Terboven Christian Terboven

hat Informatik mit der Vertiefung Hochleistungsrechnen (HPC) an der RWTH Aachen studiert und arbeitet dort seit 2006 am Rechen- und Kommunikationszentrum, seit 2009 als stellvertretender Leiter des HPC-Teams. Dort ist ein Schwerpunkt seiner Arbeit die Aus- und Weiterbildung rund ums Thema HPC und Parallelprogrammierung. Seine Forschungsinteressen kreisen generell um das Thema Parallelprogrammierung und damit verbunden Softwaretechnik. In diesem Kontext war er in etliche Projekte zur Analyse, Optimierung und Parallelisierung technisch-wissenschaftlicher Anwendung involviert. Seit 2006 ist er Mitglied des OpenMP Language Committee, leitet das Affinity-Subcommittee, welches die Themenbereiche Thread-Binding und NUMA-Unterstützung aktiv vorantreibt, und arbeitet als Co-Chair des Tasking Subcommittees zur Verbesserung der Unterstützung der Task-parallelen Programmierung.