Una guerra precisa, una guerra statistica
Dopo aver letto l'inchiesta di +972Mag sull'intelligenza artificiale usata a Gaza non si torna più indietro
In questo numero: da 50 obiettivi all’anno a 100 al giorno. Grazie all’algoritmo allenato sui dati di un sistema di sorveglianza di massa, Israele ha ucciso più di 40mila persone in pochissimo tempo.
Il tema della newsletter di oggi è ispirato al talk che ho tenuto al Festival Di Parola all'Aquila il 4 ottobre. Mi sono dovuta confrontare con la parola precisione, che mi crea parecchi problemi. Ringrazio infinitamente chi mi ha voluta sul palco e mi ha costretta ad allargare i miei spazi di riflessione. I talk si possono rivedere con una donazione al festival.
E ora, cominciamo.
I data-link della settimana
Una data-inchiesta: il progetto “The Killings They Tweeted” di Airwars, in collaborazione con Sky News, ha analizzato centinaia di video di attacchi israeliani a Gaza, pubblicati sui social media militari. I giornalisti hanno associato 17 attacchi a coordinate specifiche, documentando più di 400 vittime civili. Il sito include una mappa interattiva con i video geolocalizzati e i dati sugli impatti civili.
Un dataset dettagliato delle vittime a Gaza dal 7 ottobre 2023 che include oltre 34mila persone. La banca dati è disponibile in formato JSON e CSV e riporta dati come nome, età, sesso e fonti, aggiornati regolarmente con informazioni del ministero della salute e segnalazioni pubbliche. Viene utilizzato per monitorare e analizzare l'impatto dei conflitti su civili e infrastrutture nella regione.
(intervista) Sui bias dell’intelligenza artificiale parlerei per ore, come dimostra questa bella intervista che mi ha fatto Michela Calculli per Valori. (Michela è anche stata la Data Guest Star di settembre: puoi recuperare l’intervista qui).
(mio) Per la mia rubrica settimanale su SKYTG24, un approfondimento sui costi privati, fiscali e sociali dell’abbandono scolastico.
Una bella notizia che voglio condividere: il mio libro "Quando i dati discriminano" (Il Margine 2024) è stato inserito nella classifica dei 10 migliori libri di Scienze giuridiche, economiche e sociali del Premio Nazionale di Divulgazione Scientifica 2024. Che onore!
Trattare una decisione come una risposta rischia di farci scambiare un pregiudizio per un fatto. Analogamente, trattare una risposta come una decisione rischia di farci scambiare un fatto per un giudizio.
David Runcinam, “Affidarsi. Come abbiamo ceduto il controllo della nostra vita a imprese, stati e intelligenze artificiali” (Einaudi 2023)
Una guerra precisa, statistica
Everything was statistical, everything was neat — it was very dry
Tutto era statistico, tutto era ordinato — era molto freddo.
Even if you don’t know for sure that the machine is right, you know that statistically it’s fine.
Anche se non sei sicuro che la macchina abbia ragione, sai che statisticamente va bene.
Queste sono alcune delle testimonianze di 11 funzionari dell’esercito israeliano sull’uso dell’intelligenza artificiale a Gaza, dopo il 7 ottobre 2023, raccolte in un’inchiesta realizzata da due media israeliani, +972 mag e Local Call, che hanno indagato su come viene portata avanti la guerra dall’IDF (Israel Defense Forces) dopo il 7 ottobre. Non è una notizia recente: la prima indagine risale al novembre scorso, mentre il pezzo in cui viene definito nel dettaglio il funzionamento dell’IA al servizio di Israele è di aprile.
Ma capiterà anche a voi, di sapere dell’esistenza di un report, di un’inchiesta, averne letto i titoli e aver messo cuori nelle condivisioni sui social media, senza davvero aver mai cliccato sul link della fonte originaria. Ho avuto occasione di approfondire per un pezzo scritto per Sky1 e poi per il talk al Di Parola Festival.
Leggere integralmente il rapporto è un consiglio che vi lascio. Salvate il link2, prendetevi il tempo che riuscite a trovare, anche 10 minuti al giorno, un capitoletto per volta. Ce ne sono sei.
Capire come funziona questa tecnologia in mano agli eserciti è un punto di non ritorno.
“Se è un maschio, colpisci”
Questo è un grafico del Financial Times che mostra il numero delle vittime palestinesi dal 7 ottobre a oggi, utile per notare la velocità con cui è si è raggiunta la cifra delle 20mila vittime, e poi subito dopo le 30mila. In pochi mesi, un numero enorme.
L’efficienza di questa macchina di distruzione totale deriva all’uso di tre sistemi decisionali automatizzati usati a Gaza da parte di Israele, dai nomi in codice "Gospel", "Lavender" e "Where’s Daddy?". Questi sistemi sono stati progettati per riconoscere caratteristiche considerate indicative di un'affiliazione con il braccio militare di Hamas. Tra gli elementi monitorati ci sono l'appartenenza a un gruppo WhatsApp con un militante noto, il cambio frequente di cellulare o di indirizzo. I funzionari dell’intelligence interpellati dalle due testate avrebbero spiegato come grazie all’AI si è potuti passare da 50 obiettivi all’anno a 100 obiettivi in un solo giorno.
“Si è dimostrata efficace," ha detto B., la fonte senior. "C'è qualcosa nell'approccio statistico che ti imposta su una certa norma e standard. C'è stato un numero illogico di [bombardamenti] in questa operazione. Non ha precedenti, nella mia memoria. E ho molta più fiducia in un meccanismo statistico che in un soldato che ha perso un amico due giorni fa. Tutti lì, me compreso, hanno perso qualcuno il 7 ottobre. La macchina ha agito in modo freddo. E questo ha reso tutto più facile.
Ad un certo punto la macchina ha indicato 37mila come numero dei target possibili.
Se l’algoritmo è addestrato per identificare persone collegate all’organizzazione Hamas in base a diverse caratteristiche o azioni compiute, basta chiedergli di abbassare la soglia entro la quale includerli come potenziali target e voilà, la lista cresce vertiginosamente. Cioè se mi basta 1 elemento per trasformare un sospetto in un colpevole, per dirla facile, invece di 10, 100 elementi collegati, avere anche una sola caratteristica identificata dal sistema mi trasforma in un potenziale obiettivo. Secondo i testimoni, la killing list stilata dall’algoritmo non è più stata controllata da esseri umani nell’operazione lanciata dall’esercito dopo l’atto terroristico di Hamas: bastava una rapida verifica che il target individuato fosse almeno di sesso maschile, ed era possibile colpirlo senza ricevere alcuna autorizzazione. Accettando però anche un margine di errore del 10%.
Una guerra statistica, una guerra stupida
Perché così tante donne e tanti bambini tra le vittime? Perché nel raggiungimento dell’obiettivo quotidiano di target (il KPI dell’esercito israeliano) era lecito identificare la persona anche all’interno della propria abitazione: se si trattava di un membro non importante dell’organizzazione di Hamas, era possibile usare una dumb bomb, una bomba stupida, senza preoccuparsi di distruggere intere abitazioni civili, scuole, ospedali.
"Non vuoi sprecare bombe costose per persone poco importanti — è molto costoso per il paese e c'è una carenza di [queste bombe]", ha detto C., uno degli ufficiali dell'intelligence intervistato dalle redazioni di +972Mag e Local Call.
Capite che quando mi è stato chiesto di ragionare su come la precisione dei dati possa aiutarci nella lotta contro le oppressione e le disuguaglianze ho avuto qualche difficoltà: è della precisione che abbiamo bisogno? O la precisione è uno scudo che i dati ci offrono - teoricamente, perché sappiamo benissimo noi di TSID che siamo davanti a uno strumento pieno di difetti - per disumanizzare certe decisioni, azioni, politiche?
Perché le scelte operate in guerra da parte di chi ha usato Lavender sono state guidate dalla statistica, ignorando il costo umano e il margine di errore.
Quando in Spagna si usa VioGén, un algoritmo adottare programmi di protezione per le vittime di violenza di genere, nel 95% dei casi, gli agenti mantengono il punteggio di rischio assegnato automaticamente, ha rivelato il New York Times3.
Ma scegliere di non fare niente è comunque scegliere, direbbe una cara amica psicoterapeuta.
Anche quando accettiamo di usare le liste di obbiettivi di guerra compilate da una macchina.
La dataviz della settimana
Un grafico realizzato dal team di Bloomberg sulle vittime degli attacchi di Hezbollah (in giallo) e da Israele (in viola) da novembre 2023 a fine settembre 2024. Il pezzo contiene anche un’altra interessante dataviz sulla quantità e la distribuzione degli attacchi: quelli di Israele superano ogni settimana quelli Hezbollah.
Entrambe da tenere a mente per ogni volta in cui penseremo a come siamo arrivatə fin qui (e a dove stiamo andando).
Il tour continua!
Padova, 12 ottobre: "Bianco, occidentale, uomo. Quando la scienza discrimina. Ne parlo al Cicap Festival in dialogo con Marco Boscolo, il tema della manifestazione è “Misurare il mondo”, il programma è online.
Pisa, 13 ottobre: sciopero dei treni permettendo, sarò all’evento dal titolo “Bios & bias - Forme di resistenza contro discriminazione e diseguaglianza di genere online”, con Giulia Blasi e Leandra Borsci. Vieni a sentirci, info qui.
Bari, 25 ottobre: sono allo Storytelling Festival organizzato da La Content, alle 17.
Trieste, 30 ottobre: al Trieste Science Fiction Festival per presentare il mio libro “Quando i dati discriminano” (Il Margine 2024).
Questa newsletter è stata mandata a 8741 persone, cresce grazie al passaparola e può pagare i contributi esterni grazie agli abbonamenti. Vuoi anche tu l’accesso a tutto l’archivio e sentirti parte della comunità? Pensa a un upgrade della tua iscrizione, ma prima, provala gratis:
Io ti ringrazio per avermi letta, se vuoi portarmi nella tua azienda, libreria, biblioteca, scuola o circolo scrivimi a contact-columbro@elastica.eu. Per sponsorizzare la newsletter scrivi a newsletter@tispiegoildato.it, rispondo io oppure Roberta.
Algoritmi di guerra, così l'AI accelera i conflitti, su Sky Insider.
Ieri ho lasciato un commento a metà, poi l'ho perso. Una newsletter dura, sì, ma va letta perché sapere come funziona è molto più importante.
Impressionante, Donata. Grazie 🙏🏼