AI Safety Summit Londra 2023

AI Safety Summit Londra 2023. Questa settimana il Regno Unito ha ospitato un importante vertice sull’intelligenza artificiale (AI), che ha riunito leader politici ed esperti di tecnologia per discutere sia le promesse che i potenziali pericoli di questo sistema in rapida evoluzione. Con la continua crescita dell’IA, i Paesi di tutto il mondo stanno cercando di anticipare la curva e di stabilire alcune regole di base. Il vertice ha portato ad alcune importanti dichiarazioni ed iniziative che ci fanno intravedere il futuro della governance dell’IA. Vediamo i punti salienti per l’ AI Safety Summit Londra 2023.

  1. La dichiarazione di Bletchley
    Uno degli obiettivi principali del vertice è stato quello di stabilire un coordinamento e degli standard globali per la sicurezza dell’IA. Ciò ha portato alla firma della nuova Dichiarazione di Bletchley, approvata da 28 Paesi, tra cui pesi massimi come Stati Uniti, Regno Unito e Cina.

La dichiarazione prevede una maggiore trasparenza da parte degli sviluppatori di IA per quanto riguarda le pratiche di sicurezza e una maggiore collaborazione scientifica per la comprensione dei rischi dell’IA. È stata accolta come una pietra miliare per far sì che i leader mondiali dell’IA si allineino sulla gestione dei pericoli che l’IA comporta nei settori della vita quotidiana a causa di “un uso improprio o di problemi di controllo non intenzionali relativi all’allineamento con l’intento umano”. Anche se un po’ vago nei dettagli, è considerato un primo passo importante verso la creazione di norme internazionali e strategie di mitigazione.

  1. Kamala Harris denuncia le minacce ai diritti e alla democrazia
    La vicepresidente degli Stati Uniti Kamala Harris ha tenuto un discorso in cui ha evidenziato i danni attuali dell’IA, come la discriminazione, la disinformazione e le sfide democratiche, affermando che stanno già colpendo le popolazioni vulnerabili. Ha annunciato che l’amministrazione Biden prenderà provvedimenti per gestire i rischi sociali e le sfide normative dell’IA.

Harris ha sottolineato che, oltre alle minacce esistenziali, dobbiamo affrontare i pericoli dell’IA che già colpiscono i gruppi emarginati e le istituzioni democratiche. Le sue osservazioni indicano che il governo degli Stati Uniti si concentrerà sull’etica dell’IA e sulla protezione dei consumatori.

  1. Elon Musk avverte dei pericoli esistenziali dell’IA
    In qualità di amministratore delegato di Tesla e SpaceX, Elon Musk ha parlato apertamente dei suoi timori che l’IA sfugga al controllo umano. Ha ribadito queste preoccupazioni al summit, descrivendo l’IA avanzata come “una delle più grandi minacce per l’umanità”, dato il suo potenziale di diventare molto più intelligente delle persone.

“Non siamo più forti o più veloci di altre creature, ma siamo più intelligenti. Ed eccoci qui, per la prima volta nella storia dell’umanità, con qualcosa che sarà molto più intelligente di noi”, ha detto al summit.

Pur augurandosi di guidare lo sviluppo dell’IA in modo responsabile, ha ammesso che potremmo non essere in grado di controllare una simile entità. Tuttavia, “possiamo aspirare a guidarla in una direzione che sia benefica per l’umanità”.

  1. Il cofondatore di DeepMind afferma che i modelli attuali non presentano danni significativi
    Al vertice sull’intelligenza artificiale, Mustafa Suleyman, cofondatore di DeepMind, l’azienda britannica di intelligenza artificiale che Google ha acquistato per farne la sua divisione principale, ha suggerito che nel prossimo futuro potrebbe essere necessario un arresto temporaneo dello sviluppo dell’intelligenza artificiale. Ha dichiarato ai giornalisti che la questione dovrà essere affrontata molto seriamente nei prossimi cinque anni o giù di lì.

Tuttavia, ha anche assicurato che gli attuali modelli di IA all’avanguardia, come ChatGPT, non rappresentano un grosso rischio. Ha affermato che: “Oggi non ci sono prove che modelli all’avanguardia come il GPT-4… causino danni significativi o disastrosi”.

  1. Il Regno Unito investe in un nuovo supercomputer per l’intelligenza artificiale
    Il governo britannico ha annunciato un importante investimento di 225 milioni di sterline in un nuovo potente supercomputer chiamato Isambard-AI. Sarà costruito presso l’Università di Bristol ed è destinato a realizzare progressi nel campo della sanità, dell’energia, della modellazione climatica e in altri campi. Insieme a un altro supercomputer previsto, chiamato Dawn, questi sistemi fanno parte dell’obiettivo del Regno Unito di essere leader nell’IA, collaborando con alleati come gli Stati Uniti. Questi computer saranno messi in funzione la prossima estate.
  2. In palio il dominio globale dell’IA
    Con attori importanti come gli Stati Uniti, l’Unione Europea e la Cina in lizza per la leadership nell’IA, è chiaro che è in atto una corsa agli armamenti tecnologici ad alto rischio. Mentre il vertice del Regno Unito si è concentrato sulla cooperazione e sulla sicurezza, ogni regione vuole dettare le regole e gli standard dell’IA in linea con i propri obiettivi economici e politici.


Il presidente Joe Biden ha dichiarato che “l’America sarà all’avanguardia in questo periodo di cambiamento tecnologico” dopo aver firmato un ordine esecutivo sull’IA il 30 ottobre, anche se l’UE sta elaborando una normativa sull’IA. E la Cina ha presentato le proprie politiche per dare forma alla traiettoria dell’IA. Ma con lo sviluppo di strutture come la Dichiarazione di Bletchley, forse queste potenze rivali possono insieme impedire che l’IA vada fuori controllo.(AI Safety Summit Londra 2023)

(fonte) (fonte)

Innovaformazione promuve la cultura dell’AI e delle tecnologie moderne. Su queste tematiche trovate alcuni corsi rivolti alle aziende sul nostro sito QUI.

INFO: info@innovaformazione.net – tel. 3471012275 (Dario Carrassi)

Vuoi essere ricontattato? Lasciaci il tuo numero telefonico e la tua email, ti richiameremo nelle 24h:

    Ti potrebbe interessare

    Articoli correlati