Softwarekonferenz für Parallel Programming,
Concurrency, HPC und Multicore-Systeme
Heidelberg, Print Media Academy, 29.-31. März 2017

parallel 2017 » Programm »

// Deep Learning: Wie viel Parallelisierung steckt in Microsofts Cognitive Toolkit

Sobald es heute um Daten, Datenanalyse und Mustererkennung geht, spricht jeder im Allgemeinen sofort von Machine Learning oder im Speziellen auch gerne von Deep Learning (DL). Mittlerweile gibt es auch ein paar Tools/Frameworks, die Deep Learning unterstützen. Ein DL-Modell lebt von seiner Größe und der Datenmenge, mit der es trainiert wurde. Im Prinzip also ein Performance-Thema. Die Modelle bei Deep Learning lassen sich sehr schön clustern und parallelisieren. Ein Grund mehr, den Tools mal auf die Finger zu schauen, wie effizient sie arbeiten und wie performant sie sind.

Dieser Vortrag gibt einen Einblick in die Deep-Learning-Techniken zur Bilderkennung. Anhand eines Beispiels wird erklärt, wie mithilfe des Microsoft Cognitive Toolkit diese Bilderkennung durch Parallelisierung effizient umgesetzt werden kann.

Vorkenntnisse
Ein paar grundlegende Kenntnisse im Bereich Deep Learning wären nicht schlecht.

Lernziele
* Grundlegendes Verständnis, wie Deep Learning (DL) derzeit eingesetzt wird (und Ausblick)
* Techniken zum effektiven Einsatz des Microsoft Cognitive Toolkit (CNTK)


// Marcel Tilly Marcel Tilly

ist Program-Manager bei Microsoft Research. Er beschäftigt sich mit Themen rund um Big Data, Deep Learning und AI; im Detail geht es um Sprach- und Bilderkennung und deren Anwendung in Real-World-Szenarien. Wenn dann noch Zeit bleibt, spricht er auf Konferenzen, schreibt Artikel oder programmiert irgendetwas.