Corso Deep Learning con TensorFlow
Si definisce Deep Learning un“apprendimento gerarchico” o un “apprendimento strutturato profondo” come termine letterale. Il Deep Learning è una branca del data science (e Big Data) che raggruppa dei metodi di machine learning con riferimento ad algoritmi ispirati alla struttura del cervello umano chiamati “reti neurali artificiali”.
Le architetture di Deep Learning oggi le ritroviamo nelle applicazioni di riconoscimento automatico della voce e della lingua parlata, applicazioni di elaborazione del linguaggio naturale, applicazioni di riconoscimento di immagini e nelle applicazioni di bioinformatica.
TensorFlow è una libreria software open-source per il deep learning. TensorFlow fornisce moduli testati e performanti per la creazione di algoritmi di “apprendimento approfondito”. Nasce nel 2015 dall’area ricerca e sviluppo di Google. Oggi utilizzano TensorFlow aziende come CocaCola, Airbnb, eBay, Twitter, Intel, Paypal, SAP, Uber e molti altri colossi dell ‘information technology.
Obiettivi del Corso: formare lo studente con conoscenze basi per il Deep Learning con TensorFlow, apprendere le reti neurali ed implementare dei modelli
Requisiti per i discenti: laureandi o laureati in matematica, statistica, informatica o ingegneria con attitudine all’analisi dei dati. Consigliate conoscenze basi di programmazione in Python (in caso lo studente non avesse le basi consigliamo prima di seguire il Corso Python)
Corso-Deep-Learning-con-TensorFlow erogato per le aziende, modalità online virtual classroom oppure per i privati anche in tipologia individuale.
Corso Deep Learning con TensorFlow erogato solo su richiesta e per le aziende, anche in modalità online virtual classroom.
Vuoi essere ricontattato?
Lasciaci il tuo numero telefonico e la tua email, ti richiameremo nelle 24h:
Programma Corso Deep Learning con TensorFlow (40 ore)
Concetti fondamentali di reti neurali
- Neurone computazionale
- funzioni di attivazione
- Strato denso
- MultiLayer Perceptron
- Grafo computazionale e Backpropagation
- Discesa del gradiente
- Dropout
- Batch Normalization
Reti convoluzionali e computer vision
- Filtri
- Strati convoluzionali
- Strati di pooling
- Struttura di una rete convoluzionale classica (tipo LeNet5)
- Reti convoluzionali moderne
- Data augmentation
- Transfer learning
- Segmentazione
- Object detection
- Pacchetto YOLO
Reti ricorrenti
- Reti ricorrenti classiche (Vanilla RNN)
- Problemi comuni (vanishing/exploding gradient)
- LSTM e GRU
Trasformer e NLP
- Attenzione
- Multi-head attention
- Strato di embedding
- Positional encoding e positional embedding
- Struttura Encoder-Decoder
- Tokenizzazione
- Metodi di sampling
- Architettura di un LLM
TensorFlow
- Concetto di tensore e proprietà fondamentali
- Operazioni tra tensori
- Differenziazione automatica con GradientTape
- Uso di GPU con TensorFlow
- Gestione dei dataset con tf.data
Keras: costruzione e addestramento dei modelli
- Modulo tf.keras.layers
- Definizione di modelli con Sequential e API funzionale
- Ottimizzatori in tf.keras.optimizers
- Addestramento con Model.fit
- Keras Tuner per la model selection
Hugging Face
- Introduzione alla piattaforma
- Libreria transformers
- Libreria datasets
- Fine-tuning di modelli pre-addestrati