Partner erogante
Offerente
Descrizione corso
Il corso “Fondamenti di Deep Learning” fornisce le basi teoriche e pratiche per comprendere e implementare reti neurali profonde. Affronta algoritmi fondamentali come il Percettrone, MLP, SGD e Backpropagation, oltre a tecniche avanzate come CNN, RNN, LSTM e Transformers. Include l’uso di PyTorch e Autograd per l’ottimizzazione e la regolarizzazione di modelli di deep learning.
Conoscere i fondamenti dell’apprendimento di deep neural network e comprendere le basi per implementare e validare soluzioni basate su deep learning.
Principali argomenti trattati nel corso
- Percettrone, Reti Neurali, Stochastic Gradient Descent (SGD), algoritmo Backpropagation, Percettrone Multilayer (MLP), ottimizzazione e regolarizzazione
- Reti per sequenze RNN, LSTM, Transformers, Reti Convoluzionali (CNNs), Autoencoder
- Autograd e PyTorch
Requisiti per partecipare
- Matematica: gli studenti dovrebbero conoscere e saper applicare concetti e tecniche di analisi multivariata e algebra lineare
- Programmazione: gli studenti dovrebbero conoscenze e competenze almeno basilari di programmazione in Python
prof. Lorenzo Seidenari
Corso online
Il corso può essere attivato, su richiesta, tutti i mesi.
Dettagli del corso
Ore di docenza
Posti disponibili
Lingua/e di docenza
Lingua/e delle slide
Uso di piattaforme online per esercitazioni o questionari
Materiali di studio e di training
Materiali di studio:
Bengio, Yoshua, Ian Goodfellow, and Aaron Courville. Deep learning. Vol. 1. Cambridge, MA, USA: MIT press, 2017.
Zhang, Aston, et al. “Dive into deep learning.” arXiv preprint arXiv:2106.11342 (2021). [pytorch version]
Materiali di training:
Slides, Notebook Jupyter/Google Colab
Modalità di valutazione
Nessuna