HomeCorso FormazioneProgrammazione Parallela per l’Apprendimento Automatico

Programmazione Parallela per l’Apprendimento Automatico

Partner erogante

Università di Firenze

Offerente

Media Integration and Communication Center (MICC), UniFI/DINFO

Descrizione corso

Scopo del corso è introdurre i partecipanti alle tecniche di programmazione parallela e ad alta performance applicabili, in particolare, per diversi problemi di machine learning.
Al termine del corso si posseggono le basi fondamentali di programmazione parallela in C/C++/CUDA e Python per sistemi multicore, cluster e GPGPU; si conoscono inoltre i principali paradigmi di programmazione parallela e gli ambienti di programmazione standard con CUDA.

Obiettivi formativi

Scopo del corso è introdurre i partecipanti alle tecniche di programmazione parallela e ad alta performance applicabili, in particolare, per diversi problemi di machine learning.

Al termine del corso i partecipanti possiedono le basi fondamentali di programmazione parallela in C/C++/CUDA e Python per sistemi multicore, cluster e GPGPU; conoscono inoltre i principali paradigmi di programmazione parallela e gli ambienti di programmazione standard con CUDA.

Programma formativo e prerequisiti per partecipare

Principali argomenti trattati nel corso

  • Livelli di parallelismo (istruzioni, transazioni, task, thread, memoria)
  • Modelli di parallelismo (SIMD, MIMD, SPMD)
  • Overview GPGPU
  • Hardware GPU CUDA
  • Compilatore CUDA e strumenti
  • La memoria nella GPU e suo accesso
  • Stream e multi-GPU
  • Utilizzo librerie CUDA.

Prerequisiti per partecipare al corso: conoscenze di base di C/C++ e Python.

Docenti

prof. Marco Bertini

In che modo viene erogata la formazione

Corso online

Periodo di erogazione della formazione o di disponibilità a erogare la formazione

Il corso è attivabile, su richiesta, tutti i mesi dell’anno.

Dettagli del corso

Ore di docenza

16

Posti disponibili

30

Lingua/e di docenza

Italiano, Inglese

Lingua/e delle slide

Inglese

Uso di piattaforme online per esercitazioni o questionari

No

Materiali di studio e di training

Testo consigliato: Programming Massively Parallel Processors, David B. Kirk and Wen-mei W. Hwu, Morgan Kaufmann

Materiali di training: slides, libri di testo.

Modalità di valutazione

Nessuna

Richiedi informazioni su questo corso