La tecnologia dell’esercito di Israele

La tecnologia dell’esercito di Israele

In seguito all’attacco dei gruppi armati palestinesi guidati da Hamas nel sud di Israele il 7 ottobre 2023, sono stati ampiamente segnalati gli strumenti digitali utilizzati dall’esercito israeliano nelle sue operazioni nella Striscia di Gaza. Secondo quanto riferito, l’esercito israeliano utilizza tecnologie di sorveglianza, intelligenza artificiale (AI) e altri strumenti digitali per aiutare a determinare chi o cosa attaccare a Gaza e quando.

L’articolo “La tecnologia dell’esercito di Israele” si basa sull’indagine di Human Rights Watch che ha scoperto come quattro strumenti digitali che l’esercito israeliano sta utilizzando a Gaza utilizzano dati difettosi e approssimazioni inesatte per supportare le azioni militari. L’uso di questi strumenti digitali da parte dell’esercito israeliano rischia di violare il diritto internazionale umanitario, in particolare le leggi di guerra relative alla distinzione tra obiettivi militari e civili e la necessità di adottare tutte le precauzioni possibili prima di un attacco per ridurre al minimo i danni ai civili.

La ricerca di Human Rights Watch indica che La tecnologia dell’esercito di Israele apparentemente si basa sulla sorveglianza israeliana continua e sistematica di tutti i residenti palestinesi di Gaza, compresi i dati raccolti prima delle attuali ostilità, in un modo che è incompatibile con il diritto internazionale dei diritti umani. Gli strumenti utilizzano i dati personali dei palestinesi per informare le azioni militari come le previsioni delle minacce e l’identificazione degli obiettivi. Alcuni strumenti si basano sull’apprendimento automatico, che è l’uso di sistemi computerizzati in grado di trarre inferenze dai dati e riconoscere schemi senza istruzioni esplicite.

Non è stato possibile documentare quando e dove questi strumenti digitali vengono utilizzati o in quale misura questi strumenti sono stati utilizzati insieme ad altri metodi di raccolta di informazioni e intelligence. Tuttavia, l’uso di questa La tecnologia dell’esercito di Israele invece di aiutare a fornire un targeting più accurato e ridurre al minimo le perdite di vite umane e di proprietà civili, potrebbe esacerbare il rischio per i civili e solleva gravi preoccupazioni etiche, legali e umanitarie.

Questo articolo dal titolo ” La tecnologia dell’esercito di Israele” riporta sotto una serie di domande e risposte e fornisce analisi tecniche e legali di quattro strumenti digitali. Espone i nuovi rischi, le sfide e le questioni sollevate da questi strumenti e valuta ciascuno di essi alla luce del diritto internazionale applicabile.

L’articolo “La tecnologia dell’esercito di Israele” si basa su dichiarazioni pubbliche di funzionari israeliani, resoconti dei media, interviste con esperti e giornalisti e materiale inedito pubblicato dall’esercito israeliano, tra cui dati personali di residenti di Gaza, pubblicati online apparentemente per errore.

  1. Qual è La tecnologia dell’esercito di Israele impiegata a Gaza?
  2. In cosa consiste e come funziona lo strumento di monitoraggio delle evacuazioni dell’esercito israeliano?
  3. I dati sulla triangolazione delle torri cellulari sono sufficientemente accurati da orientare le decisioni militari?
  4. Cos’altro si sa sui dati utilizzati dal sistema di monitoraggio delle evacuazioni?
  5. Cos’è la “Lavanda” e come funziona?
  6. Su quali basi Lavender fonda il sospetto?
  7. Perché le valutazioni di Lavender sono problematiche e rischiose?
  8. Che cosa è “Il Vangelo” e come funziona?
  9. Cos’è “Dov’è papà?” e come funziona?
  10. I dati sulla posizione dei telefoni cellulari sono sufficientemente accurati per attacchi mirati?
  11. Quali sono i limiti dei sistemi che si basano su big data, apprendimento automatico e intelligenza artificiale?
  12. Quali nuovi rischi e sfide presentano gli strumenti digitali ad alta intensità di dati nei contesti militari?
  13. Gli strumenti digitali utilizzati dall’esercito israeliano sono sistemi d’arma autonomi?
  14. Come si applica il diritto internazionale umanitario all’uso militare del La tecnologia dell’esercito di Israele?

Risposte.

1.Qual è La tecnologia dell’esercito di Israele a Gaza?
Human Rights Watch ha valutato quattro strumenti che l’esercito israeliano ha utilizzato nella sua offensiva in corso a Gaza in relazione alla pianificazione militare e agli obiettivi. Uno si basa sul tracciamento dei telefoni cellulari per monitorare l’evacuazione dei palestinesi da parti della Gaza settentrionale. Un altro, che l’esercito chiama “The Gospel”, genera elenchi di edifici o altri obiettivi strutturali da attaccare. Un altro, che l’esercito chiama “Lavender”, assegna valutazioni alle persone a Gaza in relazione alla loro sospetta affiliazione con gruppi armati palestinesi allo scopo di etichettarle come obiettivi militari. “Where’s Daddy?” pretende di determinare quando un obiettivo si trova in una posizione particolare in modo che possa essere attaccato lì.

2. In cosa consiste e come funziona lo strumento di monitoraggio delle evacuazioni dell’esercito israeliano?
L’esercito israeliano ha iniziato a bombardare Gaza il 7 ottobre 2023, poco dopo che i gruppi armati palestinesi hanno lanciato un assalto al sud di Israele. Il 13 ottobre, ha emesso ordini di evacuazione a tutti i residenti del nord di Gaza, dove vivevano più di un milione di persone, di evacuare a sud di Wadi Gaza entro 24 ore, nonostante non ci fosse un posto sicuro dove andare , nessuna via sicura da percorrere e nessun riparo adeguato .

Lo strumento di monitoraggio delle evacuazioni dell’esercito israeliano si basa sui dati di localizzazione dei telefoni cellulari per monitorare gli spostamenti delle persone a Gaza. Sulla base del rapporto del New York Times pubblicato il 16 ottobre, una settimana prima che l’esercito israeliano iniziasse le principali operazioni di terra nel nord di Gaza, questo sistema veniva utilizzato dall’esercito per monitorare l’evacuazione dei palestinesi dalle loro case a nord di Wadi Gaza. Il Washington Post e il Guardian hanno entrambi pubblicato in seguito ulteriori dettagli su questo sistema.

I giornalisti hanno descritto di aver visto un ufficio nel quartier generale del comando meridionale nella città israeliana di Beer Sheva, con grandi schermi con una mappa di Gaza, divisa in 620 sezioni, ciascuna colorata a seconda del grado di evacuazione dei residenti. La mappa includeva anche etichette per ospedali, moschee, rifugi e altre strutture. I rapporti indicavano che il numero di telefoni cellulari tracciati all’epoca era di oltre un milione; prima di ottobre 2023 il ministero delle telecomunicazioni di Gaza aveva segnalato un totale di 1.041.198 abbonamenti di telefonia mobile attivi a Gaza.

Secondo questi resoconti, il sistema utilizza la triangolazione delle torri cellulari e altri dati di sorveglianza per fornire una visione in tempo reale dei movimenti dei residenti di Gaza. Gli ufficiali militari israeliani hanno detto ai giornalisti che queste informazioni venivano utilizzate per informare quali azioni i militari avrebbero potuto intraprendere in determinati luoghi e quali tipi di armi avrebbero utilizzato.

3. I dati sulla triangolazione delle torri cellulari sono sufficientemente accurati da orientare le decisioni militari?
I dati di triangolazione delle torri cellulari, in cui la posizione di un telefono cellulare viene approssimata in base alle torri cellulari a cui può connettersi, difficilmente forniranno informazioni accurate sulla posizione precisa dei dispositivi mobili e quindi delle persone che li detengono. L’imprecisione sarebbe aggravata dalla mancanza di elettricità per caricare i telefoni dopo che Israele ha tagliato tutte le linee elettriche per Gaza e l’unica centrale elettrica di Gaza ha cessato di funzionare a causa del blocco delle importazioni di carburante e da danni ingenti all’infrastruttura telefonica di Gaza.

La tecnologia dell’esercito di Israele che utilizza i dati di triangolazione delle torri cellulari per calcolare la presenza di civili come un modo per informare le decisioni relative alle operazioni militari aumentano il rischio di danni ai civili in tali operazioni. Gli strumenti potrebbero portare i comandanti militari a concludere erroneamente che non vi erano civili o erano pochi in una certa area e che questa area potrebbe quindi essere attaccata.

4. Cos’altro si sa sui dati utilizzati dal sistema di monitoraggio delle evacuazioni?
Nel maggio 2024, Human Rights Watch ha scoperto dati pubblicati online dall’esercito israeliano, apparentemente in modo errato, che includevano quelli che sembrano essere dati operativi relativi ai sistemi utilizzati per monitorare l’evacuazione e gli spostamenti delle persone attraverso Gaza, nonché per prevedere i probabili danni ai civili che sarebbero causati da attacchi in aree specifiche.

Questi dati erano inclusi nel codice sorgente del sito web di informazioni sull’evacuazione dell’esercito israeliano. I dati contenevano cifre sulla popolazione coerenti con i dati del censimento di 10 anni fa di Gaza, dati disaggregati sulla popolazione, informazioni sui movimenti della popolazione civile, la presenza dell’esercito israeliano a Gaza e un numero cumulativo di attacchi, per ciascuno dei 620 blocchi che dividono la Striscia di Gaza. I dati includevano anche informazioni personali: i cognomi delle famiglie estese più popolose in ogni blocco.

Human Rights Watch ha analizzato e mappato questi dati relativi alla presenza militare di Israele e li ha trovati coerenti con lo stato dell’incursione israeliana a Gaza a metà novembre 2023, quando le forze israeliane controllavano la maggior parte della Gaza settentrionale e non erano ancora entrate a Khan Yunis a sud. Sebbene Human Rights Watch non abbia potuto confermare in modo definitivo l’origine e l’uso delle informazioni pubblicate online, esse assomigliano ai dati descritti nei resoconti dei media relativi al sistema di monitoraggio dell’evacuazione, nonché alla pianificazione delle operazioni militari. Il sistema di monitoraggio dell’evacuazione potrebbe anche basarsi su altre fonti di dati. Human Rights Watch ha notificato la pubblicazione di questi dati alla Privacy Protection Authority, l’autorità per la protezione dei dati di Israele.

5. Cos’è la “Lavender” e come funziona?
Lavender usa l’apprendimento automatico per assegnare ai residenti di Gaza un punteggio numerico relativo alla probabilità sospetta che una persona faccia parte di un gruppo armato. Sulla base dei resoconti, gli ufficiali militari israeliani sono responsabili di stabilire la soglia oltre la quale un individuo può essere contrassegnato come bersaglio soggetto ad attacco.

L’esercito ha riconosciuto l’esistenza di uno strumento come Lavender in termini molto generali , definendolo un “database il cui scopo è quello di incrociare le fonti di intelligence”.

Una presentazione e un libro di due ufficiali israeliani forniscono importanti dettagli tecnici. In una presentazione del febbraio 2023 , il capo dell’intelligenza artificiale e della scienza dei dati presso l’Unità 8200, la divisione di intelligence dei segnali dell’esercito, ha descritto uno strumento digitale che utilizza l’apprendimento automatico “per trovare nuovi terroristi”. Il sistema, che l’ufficiale afferma essere stato utilizzato per la prima volta a Gaza nel 2021, compila dati di sorveglianza per classificare le persone in base alla loro presunta probabilità di associazione con un gruppo militante.

Lo strumento descritto nella presentazione, che Human Rights Watch ritiene essere Lavender o un altro strumento che si basa sulla stessa tecnologia di base, coinvolge un tipo di apprendimento automatico semi-supervisionato chiamato “apprendimento positivo non etichettato”, che addestra un algoritmo da un set di dati contenente sia dati etichettati (positivi) che non etichettati (negativi). Questo tipo di apprendimento automatico utilizza le qualità dei dati etichettati per cercare di identificare modelli nel set di dati più ampio. In questo caso, l’algoritmo cerca caratteristiche nella sorveglianza e altri dati su individui che l’esercito israeliano sospetta abbiano affiliazione a un gruppo militante e quindi utilizza quelle stesse caratteristiche per identificare più persone sospette dalla popolazione generale. Poiché molti punti dati non sarebbero confermati se questa tecnica fosse applicata a una popolazione ampia, questo processo si basa in larga misura su congetture infondate.

6. Su quali basi Lavender fonda il sospetto?
Senza accesso a Lavender, è impossibile sapere completamente quali punti dati utilizza lo strumento per aumentare il punteggio di sospetto di qualcuno. In generale, l’apprendimento automatico semi-supervisionato si basa su un algoritmo per elaborare grandi quantità di dati e quindi stabilire quali tipi di dati sono utili per svolgere un determinato compito. Il libro del 2021 di Yossi Sariel, capo dell’Unità 8200 , sugli usi militari dell’IA potrebbe fornire qualche spunto. Sariel descrive una “macchina bersaglio” con caratteristiche molto simili a Lavender che può essere utilizzata per identificare potenziali bersagli raccogliendo e analizzando le loro connessioni sociali, proprio come una piattaforma di social media.

Tra le qualità descritte da Sariel che potrebbero contribuire ad attribuire a qualcuno un grado di sospetto più elevato ci sono le sue relazioni o associazioni sociali, l’appartenenza a un gruppo di chat con qualcuno che l’esercito israeliano ritiene già associato a un gruppo militante, o anche semplicemente il fatto di cambiare ripetutamente telefono o indirizzo.

7. Perché le valutazioni di Lavender sono problematiche e rischiose?
Le valutazioni di Lavender presentano gravi difetti che potrebbero mettere a grave rischio i civili durante un conflitto armato. L’apprendimento positivo non etichettato (vedi domanda 5) non è uno strumento adeguato per informare le decisioni sull’identificazione di obiettivi militari legittimi. Le ipotesi che portano a uno strumento che assegna il sospetto non sono radicate nel diritto umanitario internazionale, ma piuttosto in criteri sviluppati da un algoritmo e basati su dati che sono probabilmente distorti e incompleti, e tecnicamente impossibili da esaminare.

Questo affidamento su presupposti probabilmente errati per informare le decisioni militari potrebbe portare a prendere di mira erroneamente i civili. Lavender compila dati sul comportamento e le connessioni di un gran numero di individui per assegnare loro un punteggio di sospetto. Con gli strumenti di polizia predittiva , la colpevolezza della popolazione generale viene presunta elaborando dati di sorveglianza su individui che non sono sospettati di aver commesso un crimine, violando il loro diritto alla presunzione di innocenza. In un contesto di guerra, ciò significa creare presunzioni sul loro status di obiettivi militari soggetti ad attacchi legali, quando le leggi di guerra presumono lo status di civili. Inoltre, l’uso dell’apprendimento automatico semi-supervisionato può portare a falsi positivi identificando le persone come sospette in base a qualità o comportamenti che non sono in alcun modo illegali, minacciosi o problematici, influenzando gli output.

L’uso da parte delle autorità di ampie definizioni di terrorismo e gruppi terroristici e il ricorso ad ampie disposizioni della legge militare israeliana nei Territori palestinesi occupati per vietare le associazioni come “organizzazioni ostili” solleva ulteriori preoccupazioni. In Cisgiordania, ad esempio, l’esercito ha vietato le organizzazioni palestinesi per i diritti umani come “gruppi terroristici” e ha arrestato palestinesi per la mera appartenenza a, o identificazione con, tali gruppi o entità affiliate a loro.

Se definizioni così ampie venissero utilizzate nell’addestramento di strumenti di apprendimento automatico come Lavender, destinati a informare le decisioni di targeting, i risultati sarebbero soggetti a pregiudizi simili e potrebbero aumentare la possibilità che i civili siano presi di mira dagli attacchi.

8. Che cosa è “The Gospel” e come funziona? – La tecnologia dell’esercito di Israele
“The Gospel” utilizza un algoritmo per elaborare i dati di sorveglianza per generare elenchi di obiettivi. Sulla base di resoconti dei media, The Gospel identifica quattro categorie di obiettivi non umani: obiettivi militari, tra cui obiettivi sotterranei come tunnel; case di famiglie di presunti militanti; e ” obiettivi di potere “, che sono strutture civili che vengono attaccate con l’obiettivo dichiarato, secondo analisti di intelligence attuali ed ex citati nei resoconti dei media, di “creare uno shock” che “porterà i civili a fare pressione su Hamas”. Gli articoli sul sito web delle forze israeliane del 2020 e del 2023 descrivono uno strumento basato su algoritmi che assomiglia molto a The Gospel, con quest’ultimo che menziona lo strumento per nome.

Ci sono meno informazioni disponibili su come funziona The Gospel rispetto a Lavender, ma è probabile che utilizzi anche un apprendimento positivo non etichettato per prendere le sue decisioni. The Gospel è, in effetti, uno strumento utilizzato per determinare quali strutture sono considerate oggetti civili e obiettivi militari, un processo di distinzione che gli aggressori sono tenuti a fare in base alle leggi di guerra.

9. Cos’è ” Where’s Daddy ? ” e come funziona? La tecnologia dell’esercito di Israele
In base ai resoconti dei media, “Where’s Daddy” è uno strumento che utilizza il tracciamento della posizione del telefono cellulare per avvisare gli operatori militari israeliani quando le persone che sono state contrassegnate come obiettivi militari entrano in un luogo specifico, secondo i resoconti, spesso una casa di famiglia, dove possono essere attaccate. Human Rights Watch è stata in grado di confermare che l’esercito israeliano sta utilizzando uno strumento con questa funzionalità, ma non ha potuto confermare altri dettagli tecnici specifici.

10. I dati sulla posizione dei telefoni cellulari sono sufficientemente accurati per attacchi mirati?
I dati sulla posizione dei telefoni cellulari non sono sufficientemente accurati per stabilire che una persona specifica si trovi in ​​un luogo in un momento specifico e potrebbero portare a errori mortali se usati per informare di attacchi militari. Un telefono cellulare non è un proxy affidabile per un obiettivo umano, poiché le persone, specialmente nelle zone di conflitto, potrebbero cambiare numero o dispositivo durante un’emergenza in cui l’accesso alle reti e ai dispositivi potrebbe cambiare frequentemente e all’improvviso.

Inoltre, i metodi più comuni per tracciare la posizione del telefono cellulare sono tramite la triangolazione delle posizioni delle torri cellulari , chiamate informazioni sulla posizione del sito cellulare, o tramite l’accesso ai dati GPS di un telefono cellulare . Nessuno di questi sistemi da solo è abbastanza accurato per determinare la posizione di un telefono cellulare per attacchi di precisione e il loro utilizzo nelle decisioni di targeting solleva preoccupazioni circa la mancata adozione di tutte le precauzioni possibili per evitare danni ai civili, come richiesto dalle leggi di guerra.

11. Quali sono i limiti dei sistemi che si basano su big data, apprendimento automatico e intelligenza artificiale?
Questi sistemi sono limitati da diversi presupposti e dalla tendenza a riprodurre i pregiudizi della società.

“Effetto scatola nera”: l’apprendimento automatico, l’intelligenza artificiale e altri sistemi algoritmici, per progettazione, non consentono l’esame , né mostrano il loro lavoro o i processi decisionali su come vengono generati gli output, e mancano di documentazione per supportare l’attribuzione di responsabilità agli attori rilevanti. È importante che gli strumenti digitali consentano agli utenti di controllare il lavoro dei sistemi, di vedere come sono stati creati gli output e di utilizzare quali dati. Ciò è particolarmente importante nel caso di armi o forme di generazione di obiettivi che utilizzano l’intelligenza artificiale.

“Automation bias”: l’automazione bias si verifica quando le persone ripongono eccessiva fiducia negli output degli strumenti digitali, in parte a causa della percezione che siano più neutrali degli esseri umani. Gli studi hanno scoperto che l’uso di strumenti digitali, anche nelle applicazioni militari, può portare a un controllo ridotto dei loro output e persino a fidarsi e continuare a fare affidamento sugli output automatizzati di fronte a informazioni contraddittorie.

Presupposti problematici : tutti i sistemi digitali si basano su presupposti fondamentali per funzionare; questi sono i fatti su cui si basano i calcoli (per uno strumento di raccomandazione di serie TV, sarebbe come dire che se qualcuno guarda spesso serie di fantascienza, allora lo strumento dovrebbe consigliargli più fantascienza). Mentre le istruzioni e i parametri per l’apprendimento automatico e i sistemi basati sull’intelligenza artificiale sono impostati dagli sviluppatori, questi presupposti non sono scritti esplicitamente dai programmatori, ma piuttosto sviluppati da algoritmi basati sui dati di formazione iniziali. Gli strumenti basati su questa tecnologia elaborano grandi quantità di dati con un output o un obiettivo specifico in mente, e quindi sono in grado di trarre le proprie conclusioni (tuttavia, sono i proprietari, gli sviluppatori e gli utenti di questa tecnologia che in ultima analisi hanno la responsabilità di come vengono utilizzati i sistemi basati su algoritmi). Questo metodo può funzionare per alcune applicazioni a basso rischio come le raccomandazioni TV, ma solleva gravi preoccupazioni quando viene utilizzato in contesti militari, dove ci sono conseguenze di vita o di morte.

Riproduzione dei pregiudizi della società: inoltre, mentre l’output dei sistemi algoritmici potrebbe sembrare neutrale, è probabile che le macchine riflettano i pregiudizi dei loro programmatori e della società. Questo rischio è particolarmente elevato con lo sviluppo e l’uso di strumenti digitali che informano le decisioni se le persone o gli oggetti possono essere attaccati come obiettivo militare. Nel contesto dell’esercito israeliano e delle ostilità nel Territorio palestinese occupato, ad esempio, la Corte internazionale di giustizia (ICJ) ha stabilito a luglio che Israele perpetra discriminazione e apartheid contro i palestinesi . Gli strumenti digitali sviluppati e utilizzati dall’esercito israeliano per prendere di mira le persone nel territorio occupato potrebbero riflettere tali discriminazioni e pregiudizi sistemici.

“Garbage in, garbage out”: dati imperfetti producono risultati imperfetti. Se un sistema digitale è costruito su dati imprecisi, datati, incompleti o non pienamente rappresentativi del contesto in cui cerca di operare, i suoi output saranno ugualmente imperfetti .

12. Quali nuovi rischi e sfide presentano gli strumenti digitali ad alta intensità di dati nei contesti militari?
Gli strumenti digitali utilizzati in ambito militare creano nuovi rischi e sfide attraverso la loro dipendenza dalla sorveglianza invasiva, la disumanizzazione digitale e la possibilità che le forze armate facciano eccessivo affidamento sugli strumenti digitali, con il rischio che tali strumenti aumentino il ritmo della guerra.

Gli strumenti che impiegano l’apprendimento automatico e l’intelligenza artificiale si basano su enormi quantità di dati per produrre output quali previsioni di minacce, identificazione di obiettivi, ecc. I palestinesi a Gaza e in Cisgiordania sono sottoposti a una sorveglianza costante e pervasiva da parte delle autorità israeliane e alcuni di questi dati vengono ora utilizzati per informare le operazioni militari e la pianificazione a Gaza.

Prima delle attuali ostilità, Israele, in quanto potenza occupante, manteneva un controllo significativo sugli aspetti della vita a Gaza, creando obblighi sia ai sensi del diritto internazionale dei diritti umani sia del diritto internazionale umanitario per garantire il benessere della popolazione. L’articolo 17 del Patto internazionale sui diritti civili e politici (ICCPR), di cui Israele è parte, afferma il diritto alla privacy, che non può essere soggetto a interferenze arbitrarie o illecite.

Il Comitato per i diritti umani delle Nazioni Unite, l’organismo di esperti internazionali che interpreta autorevolmente l’ICCPR, ha sostenuto che “qualsiasi interferenza con la privacy deve essere proporzionale allo scopo perseguito ed essere necessaria nelle circostanze di ogni caso specifico”. I governi sono obbligati a rispettare i diritti alla privacy degli individui, indipendentemente dalla loro nazionalità o ubicazione, dato che la tecnologia digitale consente una sorveglianza extraterritoriale di vasta portata.

Il governo israeliano ha ottenuto e archiviato dati da Gaza in modi che sembrano violare il diritto alla privacy e altri diritti umani protetti a livello internazionale. Ciò è particolarmente problematico in quanto la sorveglianza israeliana dei palestinesi a Gaza è inestricabilmente legata a un sistema di violazioni dei diritti che equivale a una politica di apartheid.

Durante un conflitto armato, la legge sui diritti umani deve essere interpretata sullo sfondo del diritto internazionale umanitario. Pertanto, ciò che equivale a un’interferenza “arbitraria o illecita” con la privacy proibita dall’articolo 17 dell’ICCPR potrebbe essere diverso se si prendono in considerazione le leggi di guerra, che sono l’organo di controllo del diritto (“lex specialis”) dopo che le ostilità sono state innescate.

Deumanizzazione digitale: i sistemi automatizzati riducono gli esseri umani a una serie di punti dati, da elaborare da parte di sistemi che hanno intrinsecamente pregiudizi e limitazioni basati sulla loro programmazione. Una volta che gli esseri umani sono ridotti a punti dati, sorvegliati, ordinati e categorizzati, potrebbe essere più facile decidere chi dovrebbe essere sottoposto a danno, incluso il targeting per azioni letali, e portare a termine tali azioni. Questa traiettoria dalla sorveglianza automatizzata al danno è chiamata “deumanizzazione digitale”.

Eccessiva dipendenza dagli strumenti digitali: in un ambiente frenetico e stressante, o dove c’è pressione per generare un gran numero di obiettivi in ​​un breve periodo di tempo, come durante un conflitto armato, c’è una tendenza a fare eccessivo affidamento sui sistemi digitali che possono produrre output a un ritmo rapido. Il Comitato Internazionale della Croce Rossa (CICR) ha identificato questo come un rischio per i sistemi basati su big data, machine learning e intelligenza artificiale che vengono utilizzati per informare le opzioni militari, notando che potrebbe facilitare decisioni soggette a errori, violazioni delle leggi di guerra e aumentare la probabilità di danni ai civili.

Aumentare il ritmo della guerra: il CICR ha anche identificato la capacità dei sistemi digitali di accelerare il ritmo della guerra come un fattore di rischio per i civili, soprattutto se una maggiore velocità operativa impedisce un’analisi approfondita e un controllo approfondito delle fonti di informazione utilizzate nella pianificazione militare. Gli ufficiali militari israeliani hanno affermato pubblicamente che gli strumenti digitali per la generazione di obiettivi hanno consentito agli ufficiali di generare in pochi giorni lo stesso numero di obiettivi che, prima dell’uso di questi strumenti, avrebbero richiesto un anno.

13. Gli strumenti digitali utilizzati dall’esercito israeliano sono sistemi d’arma autonomi?
Gli strumenti digitali dell’esercito israeliano non sono sistemi di armi autonomi: armi che selezionano e attaccano obiettivi in ​​base all’elaborazione dei sensori anziché agli input umani, e per i quali Human Rights Watch ha a lungo cercato di vietarli tramite trattato. Sono invece sistemi di elaborazione dati che forniscono informazioni ai pianificatori militari israeliani. La decisione se attaccare o meno un obiettivo raccomandato viene presa e portata avanti separatamente da un essere umano e non da una macchina. Ogni strumento digitale richiede input e supervisione umani.

Ma una risoluzione del Consiglio per i diritti umani delle Nazioni Unite adottata nell’ottobre 2022 sottolinea l’ importanza centrale del processo decisionale umano nell’uso della forza. Mette in guardia dal fare affidamento su set di dati non rappresentativi, programmazione basata su algoritmi e processi di apprendimento automatico. Tali tecnologie possono riprodurre ed esacerbare modelli esistenti di discriminazione, emarginazione, disuguaglianze sociali, stereotipi e pregiudizi, con risultati imprevedibili.

La tecnologia dell’esercito di Israele presenta problemi simili ai sistemi di armi autonome. Funzionano in modi difficili o, nel caso degli algoritmi di apprendimento automatico utilizzati da Lavender e The Gospel, impossibili da controllare, reperire o verificare. Allo stesso tempo, incoraggiano un’eccessiva fiducia apparendo accurati e imparziali.

14. Come si applica il diritto internazionale umanitario all’uso militare degli strumenti digitali?
Gli strumenti digitali non sono armi militari. Tuttavia, il loro utilizzo in operazioni militari li sottopone alle restrizioni del diritto umanitario internazionale. Come ha osservato il CICR, “Ogni nuova tecnologia di guerra deve essere utilizzata, e deve essere in grado di essere utilizzata, in conformità con le norme esistenti del diritto umanitario internazionale”.

Lavender e The Gospel sollevano questioni importanti, e potenzialmente mortali, in merito agli obiettivi militari, alla determinazione se un obiettivo designato può essere attaccato legalmente e in quali circostanze. Due regole generali presenti nel diritto dei trattati internazionali e nel diritto consuetudinario sono le più pertinenti: 1) il requisito che le forze attaccanti distinguano tra obiettivi militari e civili e oggetti civili, e attacchino solo i primi; e 2) il requisito che le forze attaccanti prendano tutte le precauzioni possibili per ridurre al minimo le perdite accidentali di vite civili e i danni agli oggetti civili.

Lavender e The Gospel si affidano all’apprendimento automatico per distinguere tra obiettivi militari e civili e oggetti civili. Se le loro raccomandazioni o valutazioni degli strumenti digitali vengono attuate senza un controllo sufficiente o informazioni aggiuntive, come è stato riportato, con conseguenti attacchi che causano danni ai civili, le forze israeliane violerebbero le leggi di guerra nell’eseguire attacchi, il che potrebbe equivalere acrimini di guerra.

Lo strumento Where’s Daddy? presumibilmente usa il tracciamento della posizione del telefono cellulare per avvisare gli operatori militari quando le persone che sono state contrassegnate come obiettivi militari entrano in un luogo specifico, come una casa di famiglia. Le leggi di guerra non proibiscono attacchi a obiettivi militari validi come comandanti militari quando sono a casa, ma tutti i requisiti legali si applicano comunque. Non è chiaro se questi altri fattori, come se l’attacco stia causando danni civili sproporzionati rispetto al vantaggio militare dell’attacco, siano presi in considerazione.

Questa La tecnologia dell’esercito di Israele solleva anche preoccupazioni quando vengono applicati standard non previsti dal diritto internazionale. Utilizzare l’apprendimento automatico per etichettare qualcuno come “terrorista”, un termine non definito dal diritto internazionale dei diritti umani o umanitario, può esporre qualcuno all’arresto o all’attacco letale senza soddisfare i requisiti probatori di illecito penale richiesti dal diritto internazionale. Gli attacchi contro i cosiddetti obiettivi di potere, grandi strutture civili identificate da The Gospel per essere prese di mira a causa del presunto impatto psicologico della loro distruzione, non sono un concetto accettato dal diritto internazionale umanitario. Attaccarli richiederebbe comunque che soddisfino i principi di distinzione, proporzionalità e precauzione.

(fonte)

Abbiamo parlato poi di cyber security nel conflitto Israele contro Hamas QUI.

Innovaformazione, scuola informatica specialista promuove la cultura delle tecnologie e dell’intelligenza artificiale. Trovate nell’offerta formativa per aziende i Corsi AI Generativa mentre l’offerta formativa completa è presente al seguente LINK.

INFO: info@innovaformazione.net – tel. 3471012275 (Dario Carrassi)

Vuoi essere ricontattato? Lasciaci il tuo numero telefonico e la tua email, ti richiameremo nelle 24h:

    Ti potrebbe interessare

    Articoli correlati