Problemi etici dell’AI

Problemi etici dell’AI. Sebbene l’intelligenza artificiale stia cambiando il modo in cui le aziende lavorano, ci sono preoccupazioni su come possa influenzare le nostre vite. Non si tratta solo di una preoccupazione accademica o sociale, ma di un rischio reputazionale per le aziende, che non vogliono essere macchiate da scandali legati ai dati o all’etica dell’intelligenza artificiale che hanno colpito aziende come Amazon. Ad esempio, la vendita di Rekognition alle forze dell’ordine ha suscitato notevoli reazioni. Specialmente dopo alcuni errori del riconoscimento facciale che ha scambiato dei parlamentari per criminali e l’abuso di tale strumento da parte della polizia. A ciò ha fatto seguito la decisione di Amazon di interrompere la fornitura di questa tecnologia alle forze dell’ordine per un anno, poiché prevedeva che per allora sarebbe stato predisposto un quadro giuridico adeguato.

Questo articolo fornisce approfondimenti sui problemi etici che sorgono con l’uso dell’IA, esempi di usi impropri dell’IA e le migliori pratiche per costruire un’IA responsabile.

Quali sono i Problemi etici dell’AI (intelligenza artificiale)?
Decisioni automatizzate / Pregiudizi dell’IA
Gli algoritmi e i dati di addestramento dell’IA possono contenere pregiudizi come quelli umani, poiché anch’essi sono generati dall’uomo. Questi pregiudizi impediscono ai sistemi di intelligenza artificiale di prendere decisioni corrette. I pregiudizi nei sistemi di IA sono dovuti a due ragioni:

  • Gli sviluppatori possono programmare sistemi di IA distorti senza nemmeno accorgersene.
  • I dati storici che addestrano gli algoritmi di IA possono non essere sufficienti a rappresentare in modo equo l’intera popolazione.

Gli algoritmi di IA distorti possono portare alla discriminazione di gruppi minoritari. Ad esempio, Amazon ha chiuso il suo strumento di reclutamento di IA dopo averlo utilizzato per un anno. Gli sviluppatori di Amazon hanno dichiarato che lo strumento penalizzava le donne. Circa il 60% dei candidati scelti dallo strumento di IA erano uomini, il che era dovuto a modelli di dati sulle assunzioni storiche di Amazon.

Per costruire un’IA etica e responsabile, è necessario eliminare i pregiudizi nei sistemi di IA. Tuttavia, solo il 47% delle organizzazioni verifica la presenza di pregiudizi nei dati, nei modelli e nell’uso umano degli algoritmi.

Anche se eliminare tutti i pregiudizi nei sistemi di IA è quasi impossibile a causa dei numerosi pregiudizi umani esistenti e della continua identificazione di nuovi pregiudizi, ridurli al minimo può essere l’obiettivo di un’azienda.

Un approccio allo sviluppo dell’IA incentrato sui dati può aiutare a risolvere i pregiudizi nei sistemi di IA.


Oggetti autonomi
Gli oggetti autonomi (AuT) sono dispositivi e macchine che svolgono compiti specifici in modo autonomo senza interazione umana. Queste macchine includono auto a guida autonoma, droni e robotica. Poiché l’etica dei robot è un argomento ampio, ci concentriamo sulle questioni non etiche che sorgono a causa dell’uso di veicoli a guida autonoma e droni.

Auto a guida autonoma
Il mercato dei veicoli autonomi è stato valutato a 54 miliardi di dollari nel 2019 e si prevede che raggiungerà i 557 miliardi di dollari entro il 2026. Tuttavia, i veicoli autonomi pongono diversi rischi per le linee guida dell’etica dell’IA. Le persone e i governi si interrogano ancora sulla responsabilità dei veicoli autonomi.

Ad esempio, nel 2018, un’auto a guida autonoma di Uber ha investito un pedone che è poi morto in ospedale. L’incidente è stato registrato come il primo decesso che ha coinvolto un’auto a guida autonoma. Dopo le indagini del dipartimento di polizia dell’Arizona e del National Transportation Safety Board (NTSB) degli Stati Uniti, i pubblici ministeri hanno deciso che l’azienda non è penalmente responsabile della morte del pedone. Questo perché l’autista era distratto dal cellulare e i rapporti della polizia definiscono l’incidente “completamente evitabile”.


Armi autonome letali (LAW)
Le LAW sono poi il fulcro della corsa agli armamenti con l’intelligenza artificiale. Le LAW identificano e ingaggiano autonomamente i bersagli sulla base di vincoli e descrizioni programmate. Ci sono stati dibattiti sull’etica dell’uso dell’intelligenza artificiale nelle forze armate. Nel 2018, ad esempio, le Nazioni Unite si sono riunite per discutere della questione. In particolare, i Paesi che sono favorevoli alle tali armamenti hanno fatto sentire la loro voce sulla questione. (Tra cui Corea del Sud, Russia e America).

Le controargomentazioni all’uso delle LAW sono ampiamente condivise dalle comunità non governative. Per esempio, una comunità chiamata “Campaign to Stop Killer Robots” (Campagna per fermare i robot assassini) ha scritto una lettera per mettere in guardia dalla minaccia di una corsa agli armamenti dell’intelligenza artificiale. La lettera è stata firmata anche da volti noti come Stephen Hawking, Elon Musk, Steve Wozniak, Noam Chomsky, Jaan Tallinn e Demis Hassabis.

Disoccupazione e disuguaglianza di reddito a causa dell’automazione
Questo è attualmente il più grande timore nei confronti dell’IA. Secondo un sondaggio della CNBC, il 27% dei cittadini statunitensi ritiene che l’IA eliminerà il loro lavoro entro cinque anni. La percentuale sale al 37% per i cittadini di età compresa tra i 18 e i 24 anni.

Anche se questi numeri possono sembrare enormi per “la più grande paura dell’IA”, non dimentichiamo che si tratta solo di una previsione che riguarda solo i prossimi cinque anni con i Problemi etici dell’AI. .

Secondo le stime di Mckinsey, agenti intelligenti e robot potrebbero sostituire fino al 30% dell’attuale manodopera umana nel mondo entro il 2030. A seconda dei vari scenari di adozione, l’automazione sostituirà tra i 400 e gli 800 milioni di posti di lavoro, richiedendo a 375 milioni di persone di cambiare completamente categoria lavorativa.

Il confronto tra le aspettative della società a 5 anni e le previsioni di McKinsey a 10 anni mostra che le aspettative di disoccupazione delle persone sono più marcate rispetto alle stime degli esperti del settore. Tuttavia, entrambi indicano che una quota significativa della popolazione sarà disoccupata a causa dei progressi dell’IA.

Un’altra preoccupazione per gli impatti dell’automazione guidata dall’IA è l’aumento della disuguaglianza di reddito. Uno studio ha rilevato che dal 1980 l’automazione ha ridotto o peggiorato i salari dei lavoratori statunitensi specializzati in mansioni di routine del 50%-70%. Un aumento di disuguaglianza di reddito fra la popolazione significa aumento di disuguaglianza sociale.

Usi impropri dell’IAProblemi etici dell’AI.
Pratiche di sorveglianza che limitano la privacy
“Il Grande Fratello ti sta guardando”. È una citazione tratta dal romanzo distopico di fantascienza sociale di George Orwell intitolato 1984. Sebbene sia stata scritta come fantascienza, potrebbe essere diventata una realtà con l’impiego dell’IA da parte dei governi per la sorveglianza di massa. L’implementazione della tecnologia di riconoscimento facciale nei sistemi di sorveglianza minaccia il diritto alla privacy.

Secondo l’Indice di Sorveglianza Globale dell’IA (AIGS), 176 Paesi stanno utilizzando sistemi di sorveglianza dell’IA e le democrazie liberali sono i principali utilizzatori della sorveglianza dell’IA. Lo stesso studio mostra che il 51% delle democrazie avanzate utilizza sistemi di sorveglianza dell’IA rispetto al 37% degli Stati autocratici chiusi. Tuttavia, ciò è probabilmente dovuto al divario di ricchezza tra questi due gruppi di Paesi.

Da un punto di vista etico, la domanda importante è se i governi stiano abusando della tecnologia o se la stiano usando legalmente. I metodi di sorveglianza “orwelliani” sono contrari ai diritti umani.

Anche alcuni giganti della tecnologia hanno espresso preoccupazioni etiche riguardo alla sorveglianza alimentata dall’IA. Ad esempio, il presidente di Microsoft Brad Smith ha pubblicato un post sul blog in cui chiede una regolamentazione governativa del riconoscimento facciale. Inoltre, IBM ha smesso di offrire la tecnologia per la sorveglianza di massa a causa del suo potenziale uso improprio, come la profilazione razziale, che viola i diritti umani fondamentali.

Manipolazione del giudizio umanoProblemi etici dell’AI.
Le analisi basate sull’IA possono fornire informazioni utili sul comportamento umano; tuttavia, abusare delle analisi per manipolare le decisioni umane è eticamente sbagliato. L’esempio più noto di abuso di analisi è lo scandalo dei dati di Facebook e Cambridge Analytica .

Cambridge Analytica ha venduto alle campagne politiche i dati degli elettori americani raccolti su Facebook e ha fornito assistenza e analisi alle campagne presidenziali del 2016 di Ted Cruz e Donald Trump. Le informazioni sulla violazione dei dati sono state rese note nel 2018 e la Federal Trade Commission ha multato Facebook per 5 miliardi di dollari a causa delle sue violazioni della privacy.

Proliferazione dei deepfake
I deepfakes sono immagini o video generati sinteticamente in cui una persona in una immagine o video, viene sostituita con le sembianze di qualcun altro.

Sebbene circa il 96% dei deepfake sia costituito da video pornografici, con oltre 134 milioni di visualizzazioni sui quattro principali siti web pornografici di deepfake, il vero pericolo e le preoccupazioni etiche della società riguardo ai deepfake sono rappresentate dal modo in cui possono essere utilizzati per travisare i discorsi dei leader politici.

Creare una falsa narrazione utilizzando i deepfake può danneggiare la fiducia delle persone nei media (che è già ai minimi storici). Questa sfiducia è pericolosa per le società, considerando che i mass media sono ancora l’opzione numero uno dei governi per informare le persone su eventi di emergenza (ad esempio, pandemie).

Intelligenza artificiale generale (AGI) / Singolarità
Una macchina in grado di comprendere il livello umano potrebbe essere una minaccia per l’umanità e tale ricerca potrebbe dover essere regolamentata. Sebbene la maggior parte degli esperti di IA non preveda una singolarità (AGI) a breve (prima del 2060), con l’aumento delle capacità dell’IA questo è un argomento importante dal punto di vista etico.

Quando si parla di IA, per lo più si intendono sistemi di IA ristretti, detti anche IA deboli, che sono specializzati per gestire un compito singolo o limitato. D’altra parte, l’AGI (Artifical Genaral Intelligence) è la forma di intelligenza artificiale che vediamo nei libri e nei film di fantascienza. AGI significa che le macchine sono in grado di comprendere o apprendere qualsiasi compito intellettuale che un essere umano può svolgere.

Etica dei robotProblemi etici dell’AI.
L’etica dei robot, detta anche roboetica, comprende il modo in cui gli esseri umani progettano, costruiscono, usano e trattano i robot. La roboetica è stata oggetto di dibattiti fin dai primi anni Quaranta. Le discussioni hanno origine soprattutto dalla questione se i robot abbiano o meno diritti come gli esseri umani e gli animali. Queste domande hanno acquisito sempre più importanza con l’aumento delle capacità dell’intelligenza artificiale e ora istituti come AI Now si concentrano sull’esplorazione di queste domande con rigore accademico.

L’autore Isaac Asimov è stato il primo a parlare di leggi per i robot nel suo racconto “Runaround”. Ha introdotto le Tre leggi della robotica:

  • Un robot non può ferire un essere umano o, attraverso l’inazione, permettere che un essere umano venga danneggiato.
  • Un robot deve obbedire agli ordini impartiti dagli esseri umani, tranne nei casi in cui tali ordini siano in conflitto con la prima legge.
  • Un robot deve proteggere la propria esistenza, purché tale protezione non sia in conflitto con la prima o la seconda legge.


Problemi etici specifici dell’IA generativa
L’etica dell’IA generativa è relativamente nuova e ha guadagnato attenzione con il rilascio di vari modelli generativi, in particolare ChatGPT di OpenAI. ChatGPT ha guadagnato rapidamente popolarità grazie alla sua capacità di creare contenuti autentici su un’ampia gamma di argomenti. Ma questo ha portato con sé anche alcune preoccupazioni di carattere etico.

Veridicità e accuratezza
L’IA generativa impiega tecniche di apprendimento automatico per generare nuove informazioni, il che può comportare imprecisioni. Inoltre, i modelli linguistici pre-addestrati come ChatGPT non possono aggiornarsi e adattarsi alle nuove informazioni.

Recentemente, i modelli linguistici sono diventati più abili nella loro capacità di parlare in modo persuasivo ed eloquente. Tuttavia, questa competenza avanzata ha portato anche il potenziale per diffondere informazioni false o addirittura creare affermazioni false.


Ambiguità del copyright
Un’altra considerazione etica sull’IA generativa è l’incertezza sulla paternità e sul copyright dei contenuti creati dall’IA. Ciò solleva questioni su chi detiene i diritti di tali opere e su come possono essere utilizzate. La questione del copyright si concentra su tre domande principali:

  • Le opere create dall’IA possono essere protette dal diritto d’autore?
  • Chi detiene i diritti di proprietà sui contenuti creati?
  • I dati generati da copyright possono essere utilizzati per scopi di formazione?


Sui problemi della copyright legati all’IA generativa ne parleremo in un altro articolo di approfondimento.

Uso improprio dell’IA generativa
Educazione scolastica: L’IA generativa può essere utilizzata in modo improprio creando informazioni false o imprecise che vengono presentate come vere. Questo potrebbe portare gli studenti a ricevere informazioni errate o a essere fuorviati. Inoltre, gli studenti possono utilizzare strumenti di IA generativa come ChatGPT per preparare i loro compiti su una vasta gamma di argomenti.


Come affrontare questi Problemi etici dell’AI?
Sono domande difficili e per risolverle potrebbero essere necessarie soluzioni innovative e controverse come il reddito di base universale. Esistono numerose iniziative e organizzazioni volte a minimizzare il potenziale impatto negativo dell’IA. Per esempio, l’Istituto per l’Etica nell’Intelligenza Artificiale (IEAI) dell’Università Tecnica di Monaco di Baviera conduce ricerche sull’IA in vari ambiti, come la mobilità, l’occupazione, la sanità e la sostenibilità.

Alcune buone pratiche per affrontare questi dilemmi etici sono:

Trasparenza
Gli sviluppatori di IA hanno l’obbligo etico di essere trasparenti in modo strutturato e accessibile, poiché la tecnologia IA ha il potenziale di infrangere le leggi e di avere un impatto negativo sull’esperienza umana. Per rendere l’IA accessibile e trasparente, la condivisione delle conoscenze può essere d’aiuto. Alcune iniziative sono:

La ricerca sull’IA, anche se si svolge in aziende private a scopo di lucro, tende a essere condivisa pubblicamente.
OpenAI è una società di ricerca sull’IA senza scopo di lucro creata da Elon Musk, Sam Altman e altri per sviluppare IA open-source utili all’umanità. Tuttavia, vendendo uno dei suoi modelli esclusivi a
modelli esclusivi a Microsoft invece di rilasciare il codice sorgente, OpenAI ha ridotto il suo livello di trasparenza.
Google ha sviluppato TensorFlow, una libreria di apprendimento automatico open-source ampiamente utilizzata, per facilitare l’adozione dell’IA.
I ricercatori di AI Ben Goertzel e David Hart hanno creato OpenCog, un framework open-source per lo sviluppo dell’AI.
Google (e altri giganti della tecnologia) ha un blog specifico per l’IA che consente di diffondere le sue conoscenze sull’IA al mondo.

Spiegabilità
Gli sviluppatori di IA e le aziende devono spiegare come i loro algoritmi arrivano alle loro previsioni per superare i problemi etici che sorgono con le previsioni imprecise. Diversi approcci tecnici possono spiegare come gli algoritmi giungono alle conclusioni e quali fattori influenzano la decisione.

Inclusività
La ricerca sull’IA tende a essere condotta da ricercatori maschi in paesi ricchi. Questo contribuisce ai pregiudizi dei modelli di IA. L’aumento della diversità nella comunità dell’IA è fondamentale per migliorare la qualità dei modelli e ridurre i pregiudizi. Esistono numerose iniziative, come questa sostenuta da Harvard, per aumentare la diversità all’interno della comunità, ma il loro impatto è stato finora limitato.

Questo può aiutare a risolvere problemi come la disoccupazione e la discriminazione che possono essere causati dai sistemi decisionali automatizzati.

Allineamento
Numerosi Paesi, aziende e università stanno costruendo sistemi di IA e nella maggior parte delle aree non esiste un quadro giuridico adeguato ai recenti sviluppi dell’IA. L’ammodernamento dei quadri giuridici, sia a livello nazionale che a livelli più alti (ad esempio, l’ONU), chiarirà il percorso verso uno sviluppo etico dell’IA. Le aziende pioniere dovrebbero guidare questi sforzi per creare chiarezza nel loro settore.

Quadri etici dell’IAProblemi etici dell’AI
Anche il mondo accademico sta lavorando a quadri di riferimento per realizzare un’IA etica nelle imprese. Un esempio è il modello a clessidra presentato di seguito, che delinea le modalità di interazione tra organizzazioni, sistemi di IA e ambiente. È inoltre corredato da un’ampia lista di compiti per coloro che cercano un approccio strutturato all’etica dell’IA.

(fonte)

Innovaformazione, scuola informatica specialistica promuove le applicazioni di intelligenza artificiale soffermandosi sui risvolti etici. Nell’offerta formativa rivolta alle aziende trovate i corsi sull’ AI Generativa.

INFO: info@innovaformazione.net – tel. 3471012275 (Dario Carrassi)

Vuoi essere ricontattato? Lasciaci il tuo numero telefonico e la tua email, ti richiameremo nelle 24h:

    Ti potrebbe interessare

    Articoli correlati