Cosa stanno facendo le aziende di IA per garantire la diversity?
Per esempio nominare panel di esperti composti da soli uomini bianchi 🤡
In questo numero: sembra che le cose non cambino mai nelle sedi dove si decide del futuro tecnologico dell’umanità.
Mi avete detto che volete i link! Ci proviamo, subito prima del pezzo lungo.
Prima però dovete dare un po’ d’amore allo sponsor della settimana, andando a vedere cosa fa lo Psicosoccorso e come può essere d’aiuto a chi sta vivendo un momento di sofferenza.
E ora, cominciamo.
I data-link della settimana
Un dataset: tutti i progetti del MIT finanziati da Israele.
Una data-notizia: un nuovo livello di Google Maps mostra i bagni pubblici di New York, sono solo 1000 per 8 milioni di abitanti.
Uno stumento: Rankless, un progetto sperimentale di visualizzazione dei dati per esplorare interattivamente l'impatto di migliaia di università, senza classifiche, appunto.
Bonus track: mio, non l’avevo ancora condiviso: Quali sono i dati che il governo sta ignorando sulle persone trans in Italia.
E poi,
mi ha chiesto come scrivo di dati. Le ho risposto.
Un bias di genere non è un peccato veniale, ma un baco che rischia di mandare all’aria interi prodotti e servizi.
“Per soli uomini” - Emanuela Griglié e Guido Romeo (Codice edizioni)
Se l’AI continua a essere sessista, razzista, ecc
La scorsa settimana Meta ha nominato un gruppo di consulenti esterni per fornire orientamenti sulla sua strategia di intelligenza artificiale. Bene. Il gruppo consultivo, composto da quattro persone, non retribuite, è interamente costituito da uomini bianchi1. Male.
Pochi mesi fa anche OpenAI, la fondazione che sviluppa ChatGpT, era stata criticata per lo stesso motivo e la mancanza di diversity (e di un approccio che tenga davvero in considerazione l’etica e la data justice come rilevanti nel piano di business) è comunque un deterrente anche per le donne che potrebbero in effetti portare nuove riflessioni e cambiamenti.
Come spesso diciamo, contare le donne o le minoranze ai tavoli di potere non è solo un esercizio di matematica per indicare chi c’è e chi manca, ma è un modo per capire come le decisioni possano avere impatto proprio sulle persone assenti.
Secondo il Global Gender Gap Report 2023 del World economic forum le donne rappresentano solo il 33,2% dei lavoratori nell’ambito delle tecnologie, dell’informazione e dei media, una classificazione comunque molto ampia del settore.
In Europa, secondo lo studio della Commissione Europea “Donne nell’era digitale” solo 24 laureate su 1000 hanno una specializzazione collegata all’ICT – delle quali solo 6 trovano lavoro nel settore digitale. La quota di uomini impiegati in questo settore è 3,1 volte maggiore di quella delle donne.
scrivevo su Guerre di Rete mesi fa.
Secondo VentureBeat2 tra le persone che si occupano di ricerca nel campo del machine learning solo il 13,5% sono donne.
Storicamente però le donne e le persone razzializzate sono state le più colpite dai progressi tecnologici, quindi è cruciale che partecipino ai processi decisionali. Oggi le donne sono sempre più spesso vittime di pornografia non consensuale resa possibile dall'IA: nel 2019, Sensity AI ha scoperto che il 96% dei video deepfake online erano espliciti e a sfondo sessuale non consensuale. Da allora, l'IA generativa è molto più diffusa e questo tipo di violenza è in crescita: su un campione di oltre 95mila video deepfake analizzati tra il 2019 e il 2023, un report di State of Deepfake ha rivelato un aumento del 550 per cento.
Altri esempi, meno violenti? Uno studio pubblicato nel dicembre 2023 condotto da un team di ricerca dell’università della California3 ha dimostrato che i modelli di linguaggio di grandi dimensioni (LLM) riproducono bias di genere nelle lettere di raccomandazione generate dai loro chatbot:
I candidati maschi sono spesso descritti come più professionali rispetto alle femmine. Le donne sono viste come meno capaci e meno professionali, con maggiori riferimenti alla loro vita personale.
Le donne sono descritte con aggettivi come "deliziosa" e "compassionevole", mentre gli uomini come "leader" ed "eccezionale".
I candidati maschi ricevono descrizioni migliori rispetto alle donne, influenzando negativamente la percezione delle abilità e dei risultati delle candidate.
Lo diciamo allo sfinimento:
lo sviluppo attuale dell'IA rispecchia le stesse strutture di potere in termini di classe, razza, genere, abilismo e anglocentrismo presenti in altri ambiti, e sembra che pochi leader e poche aziende nella Silicon Valley stiano affrontando seriamente questo problema. Anzi, lo stanno rafforzando.
Investitori, fondatori e leader tecnologici sono così concentrati sul muoversi rapidamente e "rompere le cose" (dal motto della filosofia delle startup “move fast and break things”4) che non riescono a comprendere come l'IA generativa potrebbe peggiorare le ingiustizie e le oppressioni sistemiche anziché risolverle.
Anche le persone nere subiscono particolarmente gli effetti negativi della tecnologia progettata senza considerare i loro corpi.
Pensiamo all’alto margine di errore dei sistemi di riconoscimento facciale nei confronti dei volti non bianchi: le telecamere di sorveglianza identificano le persone nere come sospetti criminali più frequentemente rispetto ai bianchi e, secondo uno studio del 2019 del Georgia Institute of Technology5 , le auto a guida autonoma sono più inclini a colpirle perché i sensori potrebbero avere difficoltà a rilevare la pelle nera.
La diversity nelle aziende di IA è letteralmente una questione di vita e di morte.
Questa newsletter è sostenuta da Nuovo Centro Clinico
Lo Psicosoccorso è un servizio di Nuovo Centro Clinico che offre un intervento per un supporto immediato durante un crisi emotiva.
Come funziona? È un incontro “one shot” per la regolazione di un momento di emergenza che merita un ascolto accurato. È uno spazio, online e in presenza, pensato per entrare in contatto con una squadra di professionisti della salute. L’incontro ha un costo di 49 euro.
Ma invece, cosa non è? Non è una psicoterapia, né una consulenza psicologica: piuttosto, si tratta di un primo passo per prendere contatto con la propria sofferenza e le proprie risorse per poterla gestire.
In particolare, si rivolge a chi si sente in difficoltà, ma anche amici e familiari che sono presenti in un momento di difficoltà e vogliono sostenere e aiutare un loro caro. Per accedere al servizio, si invia una richiesta di aiuto tramite il sito e si viene ricontattati in breve tempo per svolgere il colloquio.
La dataviz della settimana
Che democrazia è se il 47% delle persone non andrà a votare alle prossime elezioni europee?
Un bel lavoro di Divergente, un magazine digitale di giornalismo narrativo (si apre meglio su desktop).
Le nuove date del tour
Milano, 11 giugno: tengo un workshop per le aziende del network Libellula, osserveremo i dati, vediamo insieme come possono ingannare fingendosi neutrali e come invece possiamo usarli per creare una cultura aziendale che rispetti e valorizzi ogni individuo.
Bologna, 15 giugno: dalle 9:20 alle 10 parlo al We Make Future Festival con uno speech su dati che discriminano nel contesto dei media.
Milano 15 giugno: alle 17 parlo di dati e discriminazioni algoritmiche al Wired Next Fest al Castello Sforzesco in dialogo con
.Roma, 18 giugno: discuto del presunto potere dei dati con Bruno Mastroianni e Massimo Cerofolini sulla terrazza del ITS Academy LazioDigital, alle 18:30. Sì, orario aperitivo, che potete prendere insieme a noi.
Roma, 22 giugno: alle 19:30 sono al Festival del benessere finanziario di Rame in un talk dal titolo Quanto costa essere una donna (e un uomo), in quel posto super family friendly che è il Monk.
Ravenna, 25 giugno: alle 18:30 presento il mio libro “Quando i dati discriminano” nella rassegna Flaming Talks organizzata da Happy Minds.
Roma, 26 giugno: nella rassegna ReSprint al Teatro Elettra parlo con Giovanni Prattichizzo (Istat) proprio sul tema della divulgazione e la comunicazione statistica ai tempi della sfiducia.
Questa newsletter è stata mandata a 7647 persone, cresce grazie al passaparola e può pagare i contributi esterni grazie agli abbonamenti. Vuoi anche tu l’accesso a tutto l’archivio e sentirti parte della comunità? Pensa a un upgrade della tua iscrizione.
Io ti ringrazio per avermi letta, se vuoi portarmi nella tua azienda, libreria, biblioteca, scuola o circolo scrivimi a progetti@donatacolumbro.it. A mercoledì prossimo!
Il consiglio include Patrick Collison, co-fondatore e amministratore delegato della società di tecnologia finanziaria Stripe; Nat Friedman, investitore tecnologico ed ex CEO di GitHub; Tobi Lütke, fondatore e CEO dell'azienda di shopping online Shopify; e Charlie Songhurst, investitore tecnologico che in passato ha guidato la strategia aziendale e diverse acquisizioni chiave presso Microsoft.
AI makes Silicon Valley’s philosophy of ‘move fast and break things’ untenable, su The Conversation.
La questione dei bagni pubblici è una cosa che mi interessa molto, grazie per la dritta sulla mappa di New York. E standing ovation per la dataviz a cura di Divergente (rivista che non conoscevo).