Parlamento europeo su ChatGPT

Parlamento europeo su ChatGPT. Ultimamente si parla molto di intelligenza artificiale con l’avvento del famoso ChatGPT. Anche il CEO di Google di recente ha messo in guardia contro i rischi sull’utilizzo improprio dell’intelligenza artificiale.

Ormai le applicazioni di AI nascono come funghi e si moltiplicano gli utilizzi. Molti impieghi semplici o automatizzati potrebbero far scomparire tanti posti di lavoro proprio sostituiti dalle macchine e dai software di intelligenza artificiale.

L’Unione Europea non è rimasta a guardare e cosi il Parlamento europeo su ChatGPT. E’ recente infatti la discussione in parlamento su come regolamentare le piattaforme di intelligenza artificiale. Questo per tutelare tutti i diritti dei cittadini della comunità europea. Cosi L’Europa prende di mira ChatGPT con quella che potrebbe presto essere la prima “A.I. legge”.

Giovedì 11 Maggio un comitato di legislatori del Parlamento europeo ha approvato la legge sull’IA dell’UE, rendendola più vicina a diventare legge.
Il regolamento del Parlamento europeo su ChatGPT adotta un approccio basato sul rischio per regolamentare l’intelligenza artificiale.
L’AI Act specifica i requisiti per gli sviluppatori di “modelli di base” come ChatGPT, comprese le disposizioni per garantire che i loro dati di formazione non violino la legge sul copyright.

Una commissione di legislatori del Parlamento europeo ha approvato un regolamento sull’intelligenza artificiale unico nel suo genere, avvicinandolo alla legge.

L’approvazione del Parlamento europeo su ChatGPT segna uno sviluppo fondamentale nella corsa tra le autorità per ottenere un controllo sull’intelligenza artificiale, che si sta evolvendo a una velocità vertiginosa. La legge, nota come European AI Act, è la prima legge per i sistemi di IA in Occidente. La Cina ha già sviluppato una bozza di regole progettate per gestire il modo in cui le aziende sviluppano prodotti di intelligenza artificiale generativa come ChatGPT.

La legge adotta un approccio basato sul rischio per regolamentare l’IA, in cui gli obblighi per un sistema sono proporzionati al livello di rischio che esso pone.

Le regole del Parlamento europeo su ChatGPT specificano anche i requisiti per i fornitori dei cosiddetti “modelli di base” come ChatGPT, che sono diventati una preoccupazione fondamentale per le autorità di regolamentazione, dato quanto stanno diventando avanzati e si teme che anche i lavoratori qualificati vengano sostituiti.

Cosa dicono le regole?
L’AI Act classifica le applicazioni dell’IA in quattro livelli di rischio: rischio inaccettabile, rischio elevato, rischio limitato e rischio minimo o nullo.

Le applicazioni a rischio inaccettabile sono vietate per impostazione predefinita e non possono essere distribuite nel blocco.

Queste includono:

  • Sistemi di intelligenza artificiale che utilizzano tecniche subliminali o tecniche manipolative o ingannevoli per distorcere il comportamento
  • Sistemi di intelligenza artificiale che sfruttano le vulnerabilità di individui o gruppi specifici
  • Sistemi di categorizzazione biometrici basati su attributi o caratteristiche sensibili
  • Sistemi di intelligenza artificiale utilizzati per il punteggio sociale o per valutare l’affidabilità
  • Sistemi di intelligenza artificiale utilizzati per le valutazioni del rischio che prevedono reati penali o amministrativi
  • Sistemi di intelligenza artificiale che creano o espandono database di riconoscimento facciale tramite scraping non mirato
  • Sistemi di intelligenza artificiale che deducono emozioni nelle forze dell’ordine, nella gestione delle frontiere, sul posto di lavoro e nell’istruzione

Diversi legislatori avevano chiesto di rendere le misure più costose per garantire che coprissero ChatGPT.

A tal fine, sono stati imposti requisiti sui “modelli di base”, come i modelli di linguaggi di grandi dimensioni e l’IA generativa.

Gli sviluppatori di modelli di base dovranno applicare controlli di sicurezza, misure di governance dei dati e mitigazione del rischio prima di rendere pubblici i loro modelli.

Saranno inoltre tenuti a garantire che i dati di formazione utilizzati per informare i loro sistemi non violino la legge sul copyright.

“I fornitori di tali modelli di intelligenza artificiale sarebbero tenuti ad adottare misure per valutare e mitigare i rischi per i diritti fondamentali, la salute e la sicurezza e l’ambiente, la democrazia e lo stato di diritto”, Ceyhun Pehlivan, consigliere di Linklaters e co-responsabile dello studio legale telecomunicazioni, media e tecnologia e gruppo di pratica IP a Madrid, ha detto alla CNBC.

“Sarebbero inoltre soggetti a requisiti di governance dei dati, come l’esame dell’idoneità delle fonti di dati e possibili pregiudizi”.

È importante sottolineare che, sebbene la legge sia stata approvata dai legislatori del Parlamento europeo, è ancora lontana dal diventare legge.

Perché ora? (Parlamento europeo su ChatGPT)
Le società private sono state lasciate libere di sviluppare la tecnologia AI a una velocità vertiginosa, dando origine a sistemi come Microsoft ChatGPT di OpenAI e Bard di Google.

Mercoledì Google ha annunciato una serie di nuovi aggiornamenti AI, incluso un modello linguistico avanzato chiamato PaLM 2, che secondo la società supera altri sistemi leader in alcune attività.

I nuovi chatbot di intelligenza artificiale come ChatGPT hanno affascinato molti tecnologi e accademici con la loro capacità di produrre risposte simili a quelle umane ai prompt degli utenti alimentati da modelli linguistici di grandi dimensioni addestrati su enormi quantità di dati.

Ma la tecnologia AI esiste da anni ed è integrata in più applicazioni e sistemi di quanto si possa pensare. Determina quali video virali o immagini di cibo vedi sul tuo feed TikTok o Instagram, ad esempio.

L’obiettivo delle proposte dell’UE è fornire alcune regole della strada per le aziende e le organizzazioni di IA che utilizzano l’IA.

Reazione dell’industria tecnologica al Parlamento europeo su ChatGPT
Le regole hanno sollevato preoccupazioni nel settore tecnologico.

La Computer and Communications Industry Association ha affermato di essere preoccupata per il fatto che l’ambito di applicazione dell’IA Act sia stato ampliato troppo e che possa rilevare forme di intelligenza artificiale innocue.

“È preoccupante vedere che ampie categorie di utili applicazioni di intelligenza artificiale – che comportano rischi molto limitati o del tutto assenti – dovrebbero ora affrontare requisiti rigorosi o potrebbero addirittura essere vietate in Europa”, Boniface de Champris, policy manager presso CCIA Europe, ha detto alla CNBC via e-mail.

“La proposta originale della Commissione europea per l’IA Act adotta un approccio basato sul rischio, regolando specifici sistemi di intelligenza artificiale che rappresentano un chiaro rischio”, ha aggiunto de Champris.

“Gli eurodeputati hanno ora introdotto tutti i tipi di emendamenti che cambiano la natura stessa della legge sull’IA, che ora presuppone che categorie molto ampie di IA siano intrinsecamente pericolose”.

Cosa dicono gli esperti
Dessi Savova, capo dell’Europa continentale per il gruppo tecnologico dello studio legale Clifford Chance, ha affermato che le norme dell’UE stabiliranno uno “standard globale” per la regolamentazione dell’IA. Tuttavia, ha aggiunto che altre giurisdizioni tra cui Cina, Stati Uniti e Regno Unito stanno rapidamente sviluppando le proprie risposte.

“La portata del braccio lungo delle regole AI proposte significa intrinsecamente che i produttori di AI in tutti gli angoli del mondo devono preoccuparsi”, ha detto Savova alla CNBC via e-mail.

“La domanda giusta è se l’AI Act stabilirà l’unico standard per l’IA. La Cina, gli Stati Uniti e il Regno Unito, per citarne alcuni, stanno definendo le proprie politiche di intelligenza artificiale e approcci normativi. Innegabilmente osserveranno tutti da vicino i negoziati sull’AI Act per adattare i propri approcci “.

Savova ha aggiunto che l’ultima bozza di legge sull’IA del Parlamento trasformerebbe in legge molti dei principi etici per l’IA che le organizzazioni stanno spingendo.

Sarah Chander, consulente politico senior presso European Digital Rights, un gruppo di campagna per i diritti digitali con sede a Bruxelles, ha affermato che le leggi richiederebbero che i modelli di base come ChatGPT “sottopongano a test, documentazione e requisiti di trasparenza”.

“Anche se questi requisiti di trasparenza non elimineranno le preoccupazioni infrastrutturali ed economiche con lo sviluppo di questi vasti sistemi di intelligenza artificiale, richiedono alle aziende tecnologiche di rivelare la quantità di potenza di calcolo necessaria per svilupparli”, ha detto Chander alla CNBC.

“Attualmente ci sono diverse iniziative per regolamentare l’IA generativa in tutto il mondo, come la Cina e gli Stati Uniti”, ha affermato Pehlivan.

“Tuttavia, è probabile che la legge sull’intelligenza artificiale dell’UE svolga un ruolo fondamentale nello sviluppo di tali iniziative legislative in tutto il mondo e porti l’UE a diventare nuovamente un ente normativo sulla scena internazionale, analogamente a quanto accaduto in relazione al General Data Regolamento di protezione”.

(fonte)

Innovaformazione, scuola informatica specialistica promuove la cultura digitale e dell’intelligenza artificiale. Nell’offerta formativa per aziende, trovate dei corsi su questo ambito il cui elenco è disponibile sul nostro sito QUI.

INFO: info@innovaformazione.net – tel. 3471012275 (Dario Carrassi)

Vuoi essere ricontattato? Lasciaci il tuo numero telefonico e la tua email, ti richiameremo nelle 24h:

    Ti potrebbe interessare

    Articoli correlati