User Avatar

Corso Sviluppo Applicazioni LLM

56 ore
Qualsiasi livello

Corso Sviluppo Applicazioni LLM. Negli ultimi anni, i Large Language Models (LLM) hanno ridefinito il modo in cui le aziende sviluppano software, interagiscono con i clienti e gestiscono i processi interni. Quella che fino a poco tempo fa sembrava una tecnologia sperimentale è oggi un pilastro dell’intelligenza artificiale applicata. Dalla scrittura automatica di codice alla creazione di assistenti intelligenti, fino alla generazione di contenuti multimediali e alle integrazioni con sistemi aziendali, gli LLM sono diventati un componente strategico per qualunque team IT.

Capire come integrare, personalizzare e ottimizzare questi modelli non è più un vantaggio competitivo, ma una necessità per restare allineati all’evoluzione del settore. Tuttavia, lo sviluppo basato sugli LLM richiede nuove competenze tecniche: dall’uso delle API cloud all’esecuzione locale di modelli open-source, dalla gestione di dati vettoriali fino alla costruzione di veri e propri agenti AI autonomi.

Il corso “Sviluppo di applicazioni basate sugli LLM” nasce per colmare questo gap, offrendo una formazione completa, pratica e aggiornata, dedicata a team di sviluppatori aziendali che desiderano portare l’intelligenza artificiale generativa al centro delle proprie soluzioni software.

Il corso di 56 ore in modalità classe virtuale in diretta guida i partecipanti attraverso l’intero ecosistema dello sviluppo con modelli linguistici di ultima generazione.

Si parte con le API LLM Cloud, dove vengono affrontati i concetti fondamentali di interazione con il modello, la gestione dei parametri, lo streaming in tempo reale e le capacità multimodali (testo, immagini, audio). Una sezione è dedicata al function calling, per permettere agli LLM di interagire con API esterne e fonti dati aziendali in modo autonomo e sicuro, e alle tecniche di grounding, essenziali per ancorare le risposte a informazioni verificate e proprietarie.

Segue la parte sull’esecuzione locale di modelli open-source (es. Llama, Mistral) tramite strumenti come Ollama o LM Studio, con esercitazioni sull’interazione API locale.

Il modulo RAG (Retrieval-Augmented Generation) introduce i database vettoriali (ChromaDB, Pinecone) e mostra come combinare recupero e generazione per creare sistemi conversazionali basati su conoscenza specifica.

Infine, il corso approfondisce lo sviluppo di agenti AI attraverso framework come LangChain o Google ADK, con esempi pratici di flussi di lavoro, memorie e orchestrazione multi-step. In chiusura, un modulo opzionale affronta il protocollo MCP, utile per applicazioni avanzate di comunicazione client-server in contesti AI distribuiti.

Al termine del corso, i partecipanti saranno in grado di progettare, sviluppare e integrare applicazioni basate su LLM, trasformando le potenzialità dell’AI generativa in soluzioni concrete per la propria azienda.

Obiettivi del Corso Sviluppo Applicazioni LLM:

L’obiettivo è l’integrazione degli LLM nelle applicazioni. Il partecipante tipo è un programmatore – anche totalmente digiuno di AI – che vuole integrare nelle proprie applicazioni i servizi forniti dagli LLM o costruire applicazioni basate sugli LLM (tipo agenti o RAG).


Requisiti per i discenti:

Conoscenza base di Python.

Altri corsi di AI Generativa presenti QUI.

Corso Sviluppo Applicazioni LLM: attivabile solo per le aziende e su richiesta.

Modalità virtual classroom online in diretta (o frontale in-house).

Vuoi essere ricontattato?

Lasciaci il tuo numero telefonico e la tua email, ti richiameremo nelle 24h:

    Programma didattico Corso Sviluppo Applicazioni LLM (56 ore)

     

    API LLM Cloud

    • Utilizzo del Motore di Linguaggio (Core LLM): Concetti fondamentali di interazione, modelli, e parametri chiave.
    • Streaming: Implementazione dell’output in tempo reale, token per token, per una migliore esperienza utente.
    • Multimedialità (Multimodality): Lavorare con modelli multimodali (come Gemini) per elaborare e generare contenuti da testo, immagini e, se applicabile, audio/video.
    • Utilizzo dei Tool (Function/Tool Calling): Programmare gli LLM per decidere in modo autonomo quando e come chiamare funzioni o API esterne (es. ricerca meteo, interazione con database).
    • Grounding (Ancoraggio): Tecniche per “ancorare” le risposte del modello a informazioni specifiche, aggiornate o proprietarie, riducendo le allucinazioni..

    Esecuzione Locale di Modelli Open-Source

    • Installazione e Configurazione: Setup e configurazione di Ollama e/o LM Studio per l’esecuzione locale di popolari (es. Llama, Mistral).
    • Interazione tramite API Locale: Eseguire e interagire con un LLM locale tramite un endpoint API standard, replicando l’esperienza delle API cloud.

    Retrieval-Augmented Generation (RAG)

    • Database Vettoriali (Vector DB): Introduzione agli embedding vettoriali e al loro ruolo nella ricerca semantica. Utilizzo pratico di un database vettoriale (es. ChromaDB, Pinecone o equivalente) per l’archiviazione dei dati.
    • Retrieval (Recupero): Implementazione del processo di ricerca nel DB vettoriale per recuperare il contesto più rilevante.
    • Generation (Generazione): Integrazione del contesto recuperato nel prompt dell’LLM per una generazione di risposte accurata e “grounded”.

    Sviluppo di Agenti AI

    • Google AI Development Kit (ADK) / Framework Equivalente: Installazione e setup del framework scelto (es. Google ADK o framework come LangChain) per la creazione di flussi di lavoro per agenti.
    • Architettura e Utilizzo degli Agenti: Comprensione dei componenti chiave: Esecutore, Memoria, Tool (Strumenti) e Planner. Progettazione di agenti per obiettivi specifici.
    • Flussi (Flows) e Orchestrazione: Sviluppo e gestione di flussi di lavoro multi-step in cui l’agente utilizza i suoi strumenti e la sua memoria per completare un obiettivo complesso.

    Protocollo MCP (Se Applicabile/Avanzato)

        • Concetti Fondamentali: Struttura del protocollo, tipi di messaggi e procedure di handshake.
        • Scrittura di un Server: Sviluppo di un server MCP base in grado di ricevere, analizzare e rispondere ai messaggi del client.
        • Scrittura di un Client: Sviluppo di un client MCP per stabilire una connessione e scambiare dati con il server.
    Contattaci su Whatsapp
    Innovaformazione
    Privacy Policy

    Questo sito Web utilizza i cookie per consentirci di offrire la migliore esperienza utente possibile. Le informazioni sui cookie sono memorizzate nel tuo browser ed eseguono funzioni come riconoscerti quando ritorni sul nostro sito web e aiutando il nostro team a capire quali sezioni del sito web trovi più interessanti e utili.

    È possibile regolare tutte le impostazioni dei cookie navigando le schede sul lato sinistro.