Uno spettro si aggira per l’Europa: l’intelligenza artificiale. Ormai sulla bocca di tutti, realmente quanti saprebbero dire di cosa si tratta? Pochi, un italiano su due, stando alla recente ricerca Ital Communications di Istituto Piepoli. Il report Ipsos “Intelligenza artificiale e ruolo della tecnologia” giunge a conclusioni analoghe: su un panel di cittadini sotto i 75 anni, confrontato con i risultati di 30 Paesi dei cinque continenti, conclude che l’italiano si sente ben informato ma il livello di conoscenza reale è basso. Ne sa meno che all’estero, tanto che l’Italia si ritrova al penultimo posto, seguita dal Giappone, nella media globale sulla valutazione della conoscenza di AI. E pensare che è proprio il desiderio di sapere, insieme a quello di poter fare meno fatica, che ci ha portato ad avere macchine che fanno azioni per noi o insieme a noi.
La macchina del saper fare
Robot, parola di origine ceca, indica un lavoro eseguito da una macchina che può alleviarci da una fatica ma anche darci la soddisfazione di vedere un comando eseguito. Nel ‘700 nacquero così i primi robot musicisti, il robot suonatore di flauto di Jacques de Vaucanson, seguito poi dallo scrivano che componeva testi personalizzati su carta e poi dal disegnatore e dalla pittrice. Da tempo in cucina gli impastatori piccoli e grandi si sono evoluti e sono stati integrati con sensori in grado di percepire ingrediente e densità. In aziende i nuovi robot fanno al posto nostro e i cobot insieme a noi. Abbiamo umanoidi, canidi, insetti miniaturizzati. Nessuno di questi parla o pensa.
Neppure il Golem, la creatura che per la tradizione ebraica sarebbe stata al servizio dell’uomo che l’avesse creata seguendo i rituali della cabala non è ancora uscita da alcuna fabbrica e se è vero alla fine degli anni ’60 l’istituto Weizman di Rehovot realizzò l’enorme calcolatore che i costruttori vollero chiamare “Golem”, la macchina rispondeva a numerose domande ma di lì non si mosse e tantomeno parlò.
Robot, parola di origine ceca, indica un lavoro eseguito da una macchina che può alleviarci da una fatica ma anche darci la soddisfazione di vedere un comando eseguito
La macchina che sa parlare
Interloquire e dialogare comporta interazione con l’uomo e utilizzo del linguaggio naturale, la modalità espressiva simile a quella di una persona. Imitare il linguaggio umano tuttavia non può bastare. Se ne accorse Joseph Feigenbaum, informatico studioso di intelligenza artificiale che a metà degli anni ’60, dopo aver creato Eliza, una chatbot psicoterapeuta, si disse stupito di come «un pubblico colto sia capace, anzi desideroso, di attribuire proprietà esagerate a una nuova tecnologia che non capisce». Eliza in effetti era in grado di comunicare per via testuale con le persone risultando simpatica e involontariamente divertente. Ancora oggi Eliza risponde alle nostre domande a modo suo, psicanalizzandoci.
Volendo si può fare una prova a questo indirizzo: https://web.njit.edu/~ronkowit/eliza.html.
Un semplice agente conversazionale animato da una grammatica generativa potrebbe creare idee grammaticalmente corrette eppure totalmente insensate. Lo notò Noam Chomsky nel suo Syntactic Structures del 1957: «Colorless Green Ideas Sleep Furiously» cioè «Incolori idee verdi dormono furiosamente» la frase è grammaticalmente corretta, ma semanticamente priva di senso. Il rischio è che «la macchina che non conosce l’atmosfera umana, la densità del reale che avvolge i nostri luoghi e i nostri corpi umani» – Y. C. Lezcano, in L’ermeneutica dell’esperienza contro la chiusura algoritmica – parli quasi a caso. Eppure, noi ci fidiamo.
Il test di Turing
Lo intuì Alan Turing, studioso della AI, che preparò un test, quasi un gioco, per analizzare il comportamento di una macchina se e quando diviene indistinguibile da quello umano. Funziona così: una persona scrive domande a due soggetti, uno umano, l’altro non umano. Se chi ha formulato le domande, non riesce a distinguere con chi dei due sta interloquendo, la macchina ha superato il test ed è considerata capace di pensare. Sebbene non sia considerato valido da tutti gli esperti, il test è stato superato nel 2014. Non solo: questa estate uno studio dell’Università di San Diego ha messo a confronto diversi sistemi conversazionali che sono poi risultati in grado di simulare in modo convincente una conversazione umana: alla prova dei fatti alcuni di questi sono risultati più credibili degli umani.
La coscienza del trapano
Eppure, i recenti progressi nel campo dei modelli di linguaggio di grandi dimensioni – detti LLMS – pongono la domanda: cosa significa realmente “intelligenza artificiale”? Quando ci rivolgiamo a ChatGPT, parliamo con un soggetto in grado di esprimersi in linguaggio naturale – sì – che ci fa percepire di essere a contatto con un essere simile a noi, uno di noi. Un essere senziente, che ha una coscienza e che può farsi ascoltare. In realtà la stessa AI sostiene di non avere più coscienza di un trapano. E come un trapano “sa” di essere acceso o spento. Come il trapano “sa” se sta lavorando, “sa” se sta funzionando semplicemente perché funziona. Questa confessione è stata fatta proprio online da Chat GPT. Provare per credere.
Gli errori dell’AI
L’AI però per somigliare a noi sbaglia come noi perché viene incentivata. Open AI ha spiegato che «Le allucinazioni – gli errori dell’intelligenza artificiale – nascono come errori nella classificazione binaria. Se le affermazioni errate non possono essere distinte dai fatti, allora le allucinazioni nei modelli linguistici preaddestrati emergeranno per pressioni statistiche». Quindi come il trapano deve bucare, l’AI deve parlare, rispondere. Meglio rispondere e sbagliare che stare zitti. Proprio come durante un’interrogazione a scuola.
L’AI ci inganna riproducendo il nostro linguaggio, ma tra le aziende una su quattro la sceglie scommettendo di crescere. Lo dice un’indagine del Centro Studi Guglielmo Tagliacarne su un campione di 4.500 aziende italiane svelando che nei prossimi anni il 26,8% di queste intende investire in AI. Non solo in Italia, anche all’estero: Volkswagen ha già messo a budget un miliardo di dollari entro il 2035. È in questo ambito che si giocherà gran parte della scommessa.
