Cose che non piacciono all’AI: i cimbali e le famiglie omogenitoriali
E poi: cosa siamo noi esseri umani davanti ai computer?
Quando ho scritto che parlare di AI fa salire l’open rate, le vendite, l’attenzione, l’interesse, non avevo previsto che ne avremmo discusso così tanto in questi mesi, in modo così frequente e ossessionante.
Ora temo che l’ennesima newsletter sull’intelligenza artificiale vi faccia venire voglia di chiudere tutto, ma spero di no, anche perché abbiamo uno sponsor incredibile che ringrazio subito: è Banca Etica, di cui non potrei smettere di fare endorsement neanche se volessi, dal momento che sono pure una loro felice correntista.
E ora, entriamo nel vivo.
Comme Vincent Adultman, ChatGPT est très évidemment 3 millions d'enfants empilés les uns sur les autres sous un trench-coat.
Antonio Casilli (su Twitter)
Come Vincent Adultman, ChatGPT è ovviamente 3 milioni di bambini ammucchiati uno sopra l'altro sotto un trench. (traduzione mia)
La reference è un personaggio del cartone animato BoJack Horseman.
Lo scrivevo già un mese fa: l’algoritmo lo puoi disegnare, l’AI no, è tutta immaginazione, ed è un bene che lo sia.
Tutti siamo capaci di riconoscere la stupidità, mentre quando parliamo di intelligenza artificiale ognuno di noi ha la propria idea personale di cosa sia e a cosa ci stiamo riferendo. Gli esseri umani sognano da tempo una macchina in grado di assisterli nel lavoro e nella vita, ma temono anche che possa portarli alla distruzione.
Sono considerazioni degli autori di “Intelligenza artificiale”, un libro curato da Stefano Quintarelli uscito per Bollati Boringhieri nel 2020, lo consiglio per avere una sorta di testo-guida per attraversare la fase che stiamo vivendo oggi
L’arrivo di strumenti come ChatGpt, che è un bot conversazionale, e di Midjourney, Dall-e e Stable Diffusion, applicazioni per generare immagini da istruzioni testuali, sta permettendo a persone anche non addette ai lavori di capire l’evoluzione incredibile e rapidissima di un pezzo specifico dell’AI, e cioè quello che riguarda la produzione di testo in “linguaggio naturale”, come se fosse scritto da esseri umani, e il riconoscimento delle immagini. Ne stiamo parlando con
entusiasmo (qui un video in italiano di
su GPT-4)pragmatismo (Alberto Puliafito con Slow News sta spiegando in modo efficace come funzionano e come sfruttare questi stumenti nel proprio lavoro)
preoccupazioni per le implicazioni etiche (molteplici, ne ha parlato Meredith Broussard in un’intervista per la MIT Review, molte aziende IT hanno firmato un patto per l’AI responsabile, ma poi Microsoft ha licenziato il team che si occupava di etica e OpenAi non ha rilasciato alcuna informazione su come funziona il nuovo GPT-4)
timore per il fatto che ci ruberà il lavoro (10 tipi di professioni sostituibili dai computer)
entusiasmo capitalista (Jackson Greathouse Fall, che fa il brand designer, ha chiesto a GPT-4 come fare soldi in breve tempo con un budget di 100$ e seguendo le istruzioni del computer dice di averne guadagnati in cash $1,378.84, e di avere in mano un azienda che vale 25mila dollari)
considerazioni ambientaliste (addestrare un singolo modello di AI può far consumare la stessa quantità di energia elettrica di 100 case statunitensi in un anno)
Ma cosa succede dall’altra parte dello schermo? Non dentro il software, l’applicazione, l’algoritmo, il codice, cosa succede a noi esseri umani quando abbiamo la possibilità di simulare una lunga conversazione di senso compiuto (scordatevi quel robot pasticcione dentro Alexa che ripete “non ho capito” ogni due per tre) con un computer? Se lo chiede Simone Natale, che è l’autore del libro scelto dal Data Book Club per la lettura del mese scorso, “Macchine ingannevoli” (Einaudi 2022) e di cui parliamo stasera su YouTube, dove ripercorre la storia dell’intelligenza artificiale e dell’informatica con un’attenzione specifica al rapporto dell’essere umano con le macchine. Perché in fondo ogni volta che usiamo un’interfaccia stiamo credendo all’inganno che i programmatori hanno costruito per noi: non scrivo questa newsletter in codice binario, ma sono dentro un foglio bianco digitale costruito apposta per me da Substack per inviare le mie parole a chi le vuole leggere. E quanto più l’inganno funziona, cioè l’interaction design è studiato e progettato bene, la nostra esperienza migliora. Natale dice che noi umani siamo caratterizzati dalla capacità e volontà di farci ingannare. Sappiamo benissimo che le AI non sono intelligenti (e quanto è difficile dire cosa sia l’intelligenza, tra l’altro), sappiamo benissimo che Alexa o le sue sorelle chatbot come Eliza o Cortana sono software, lo sappiamo anche di ChatGPT, ma per poter usare queste tecnologie dobbiamo credere all’inganno o alla “magia” (tema affrontato anche da Chiara Valerio in “La tecnologia è religione”, Einaudi 2023).
Nel mio libro “Dentro l’algoritmo” dico che ci rendiamo conto che appunto è un algoritmo a definire la nostra esperienza social o di altre molte app (da google maps a quella del meteo) solo grazie ai glitch, piccoli errori, cortocircuiti rapidissimi che ci mostrano tutta la fallibilità dei computer.
E ora veniamo all’oggetto di questa email.
Cose che non piacciono all’AI
Due glitch nell’utlima settimana mi hanno confermato che stavo usando dei computer - o delle interfacce.
Una riguarda i cimbali.
I cimbali sono uno strumento musicale che si usa nelle pratiche di meditazione per indicare l’inizio e la fine della pratica. Sto seguendo un protocollo di mindfulness online e nelle due pratiche che facciamo in diretta il lunedì le maestre che conducono suonano i cimbali per segnarne l’inizio e la fine. Peccato che dentro Zoom, la nostra interfaccia, il suono dei cimbali venga percepito come un disturbo e il potente software di eliminazione del rumore lo cancella totalmente dall’audio che riceviamo noi persone collegate.
Per l’AI di Zoom i cimbali sono un errore perché, arrivata sul mercato come piattaforma di videochiamate e riunioni a distanza, non aveva previsto che un diiiing potesse risultare utile o persino piacevole come suono da inviare da una parte all’altra del computer.
Un bellissimo glitch.
Del secondo ne ho parlato su Instagram. Ho provato a chiedere a Dall-e di produrmi l’immagine di cover della scorsa newsletter, usando il prompt “La foto di una famiglia di due madri e un bambino la cui faccia è cancellata o invisibile”. Dopo varie prove mi ha creato la foto che vedete nell’anteprima, bruttina, ma effettivamente precisa rispetto alle istruzioni fornite.
Dopo una discussione con Vanni Santoni e Francesco D’Isa, che usano moltissimo questi software per ricerca e lavoro, decido di (ri)pagare un abbonamento a Midjourney per chiedere la stessa cosa.
Viene fuori che Midjourney in realtà è 3 ministre roccella una sopra l’altra sotto un trench.
Visto che io ho chiesto una “famiglia” aggiunge il padre di default:
L’AI è ancora parecchio bigotta, perché lo è nostra società. Ma non sarà l’ultima volta che ve lo racconto.
Questa newsletter è sostenuta da: Banca Etica
Lo sai che il sistema bancario tradizionale ha registrato questi numeri?
9 miliardi di euro di investimenti nel settore delle armi
4.600 miliardi di dollari di finanziamenti alle fonti fossili*
Ma c’è una banca diversa che protegge i tuoi risparmi anche dal rischio che vengano usati per sostenere attività dannose per le persone e l’ambiente.
** Report Banche Armate 2021 e Rapporto Banking on Climate Chaos 2022
La dataviz della settimana
Quanti sono 5mila litri d’acqua? Tanti o pochi?

Vorrei aiutare il sindaco di Firenze Dario Nardella a riconnettersi con la realtà della crisi climatica condividendo un vecchio e famoso lavoro interattivo della designer italiana Angela Morelli: “The water we eat”, l’acqua che mangiamo.
Sono 3496 litri d’acqua al giorno.
Tour e segnalazioni di marzo
Quant’è bello andar su e giù per l’Italia in treno? Tanto. Mi stanco? Sì, ma mi stancherei di più a fare le 9-18 in un ufficio.
I prossimi appuntamenti da segnare sono questi:
22 marzo: stasera alle 18 io e Elena Canovi intervistiamo Simone Natale sul suo libro “Macchine Ingannevoli” (Einaudi 2022) sul canale Youtube del Data Book Club. Se non ne puoi più della retorica sulle magie che possono fare i computer per migliorarci la vita vieni a seguirci.
26 marzo: alle 11:30 sono a Biennale Democrazia a Torino per rispondere alla domanda (facile, facilissima) “L’Italia è un paese per donne?” con Eva Vittoria Cammerino di Prime Minister – Scuola di politica per giovani donne.
E poi:
(mio) Cosa dicono le mappe delle città sulla rappresentazione delle donne per La Stampa
Vuoi portarmi in tour? Scrivimi!
Grazie di aver letto fino a qui, ci leggiamo mercoledì prossimo!
Condividi questo numero con il comodo bottoncino giallo: