Corso Deep Learning con TensorFlow
Si definisce Deep Learning un“apprendimento gerarchico” o un “apprendimento strutturato profondo” come termine letterale. Il Deep Learning è una branca del data science (e Big Data) che raggruppa dei metodi di machine learning con riferimento ad algoritmi ispirati alla struttura del cervello umano chiamati “reti neurali artificiali”.
Le architetture di Deep Learning oggi le ritroviamo nelle applicazioni di riconoscimento automatico della voce e della lingua parlata, applicazioni di elaborazione del linguaggio naturale, applicazioni di riconoscimento di immagini e nelle applicazioni di bioinformatica.
TensorFlow è una libreria software open-source per il deep learning. TensorFlow fornisce moduli testati e performanti per la creazione di algoritmi di “apprendimento approfondito”. Nasce nel 2015 dall’area ricerca e sviluppo di Google. Oggi utilizzano TensorFlow aziende come CocaCola, Airbnb, eBay, Twitter, Intel, Paypal, SAP, Uber e molti altri colossi dell ‘information technology.
Obiettivi del Corso: formare lo studente con conoscenze basi per il Deep Learning con TensorFlow, apprendere le reti neurali ed implementare dei modelli
Requisiti per i discenti: laureandi o laureati in matematica, statistica, informatica o ingegneria con attitudine all’analisi dei dati. Consigliate conoscenze basi di programmazione in Python (in caso lo studente non avesse le basi consigliamo prima di seguire il Corso Python)
Corso-Deep-Learning-con-TensorFlow erogato per le aziende, modalità online virtual classroom oppure per i privati anche in tipologia individuale.
Corso Deep Learning con TensorFlow erogato solo su richiesta e per le aziende, anche in modalità online virtual classroom.
Programma Corso Deep Learning con TensorFlow (40 ore)
Introduzione al Deep Learning
- Definizione di Deep Learning
- Reti Neurali
- Applicazioni di Deep Learning
ANNs (Artificial Neural Networks)
- Introduzione
- Perceptron
- Funzioni di attivazione: Sigmoid, ReLU, iperboliche, Softmax
- Regole di apprendimento
- Forward e Backpropagation
- Gradiente Discendente e Gradiente Discendente Stocastico
- Minimizzazione della funzione di costo
- Multi-Layer ANNs
Ottimizzazione e Regolarizzazione
- Overfitting
- Cross Validazione
- Feature Selection
- Regolarizzazione
- Dropout
- Iperparametri
Allenamento di Reti Neurali
- Inizializzazione Xavier
- ReLUs e ELUs
- Normalizzazione Batch
- Transfer Learning
- Pre-apprendimento senza supervisione
TensorFlow
- Introduzione
- Grafo Computazionale
- Punti Chiave
- Creazione Grafo
- Esempio di Regressione
- Gradiente Discendente
- TensorBoard
- Salvataggio e ripristino modelli
- Reti basate su Keras
CNN: Convolutional Neural Network
- Introduzione alle CNN
- Filtro kernel
- Architettura CNN
- Implementare CNN in TensorFlow
RNN: Recurrent Neural Network
- Introduzione alle RNN
- Cella RNN di base
- Previsioni temporali
- LSTM (Long Short-Term Memory) e GRU (Gated Recurrent Unit)
- Word Embeddings
- Modelli Seq2Seq
- Implementare RNN in TensorFlow