Risposta esatta

Il fenomeno ChatGPT ha riacceso nel mondo il dibattito sull’intelligenza artificiale. Per saperne di più, incontriamo Gino Roncaglia, Professore di Digital Humanities e Filosofia dell’informazione presso l’Università Roma Tre.

Così recita la prima legge della robotica di Asimov: «Un robot non può recar danno a un essere umano e non può permettere che, a causa di un suo mancato intervento, un essere umano riceva danno.»  E se da un dogma della fantascienza proiettato su ipotesi avveniristiche ci affacciassimo nel campo delle possibilità, se non addirittura della quotidianità? Questo ci domandiamo mentre fuori la natura si conferma imprevedibile e oltre 100 milioni di utenti chattano nel mondo con Chat GPT: “The next big thing”, come alcuni già la definiscono, pronta a cambiare il ruolo dell’intelligenza artificiale nelle nostre vite.

Di cosa parliamo esattamente, Prof. Roncaglia?

Chat GPT, sviluppata da OpenAI, è un esempio di intelligenza artificiale generativa, capace cioè di generare contenuti, nel caso specifico testuali perché produce testi (o, in alcuni casi, codici di programmazione). Ma ci sono anche intelligenze artificiali generative in grado di produrre immagini, video o musica. Quelle di cui oggi si discute tanto, come Chat GPT, sono intelligenze artificiali generative legate alla produzione di contenuti in risposta a un “prompt”, un quesito che noi poniamo.

Quelle di cui oggi si discute tanto, come ChatGPT, sono intelligenze artificiali generative legate alla produzione di contenuti in risposta a un “prompt”, un quesito che noi poniamo

Ciò che colpisce, da subito, è infatti la capacità che il sistema di chat ha di rispondere, in maniera tempestiva e accurata.  

Certamente, perché è un’intelligenza artificiale basata su reti neurali profonde, quel che tecnicamente chiamiamo deep learning: si tenta di simulare il funzionamento dei neuroni del cervello umano. C’è uno strato di input, che in questo caso corrisponde al nostro prompt, e c’è un output che corrisponde al risultato testuale prodotto. In mezzo vi è un’area profonda dell’I.A., costituita da reti neurali configurate in una fase di training su una vasta base di testi, il cui esatto funzionamento risulta oscuro agli stessi programmatori che hanno immesso la grandissima mole di dati entro cui l’I.A. si muove.

È lì che la macchina “si libera” dell’uomo?

Proviamo a spiegarlo in maniera chiara. Il sistema lavora acquisendo a monte un corpus testuale molto ampio – per questo viene descritto come un large language model – e studia questo volume di testi costruendo modelli associativi in cui verifica statisticamente quali sono le tipologie di risposte, reazioni, associazioni più frequenti tra le parole (e i morfemi) che lo compongono. È quindi un sistema che, sulla base di un calcolo statistico, produce risposte che non solo risultano “sorprendentemente” corrette sotto il profilo sintattico, ma anche adeguate dal punto di vista contenutistico.

Le voci critiche su Chat GPT parlano di un sistema di base aggiornato al 2021, incapace quindi di interagire sui temi di immediata attualità. Ci faccia capire, non è in grado di stare sul pezzo?

È un punto importante, connesso all’attuale sviluppo tecnologico. Questi sistemi hanno bisogno di molto tempo per immagazzinare e gestire il grande corpo di testi e informazioni immesso. Servono mesi e un impegno economico e tecnologico estremamente rilevante. Non possono quindi essere ancora aggiornati in tempo reale, per così dire, in ragione di questioni pratiche di sviluppo. Ma ci sono vie d’uscita: informazioni aggiornate, anche in tempo reale, possono essere fornite al sistema dopo il suo addestramento di base. Questo può permettere di integrare l’intelligenza artificiale con un motore di ricerca: è la strada seguita da Bing, che usa comunque il sistema di OpenAI, e da Google, con il suo sistema Bard.

SI parla però molto anche dei limiti e dei problemi di alcune fra le risposte date.

Questi modelli sono molto efficaci sintatticamente, ma hanno ancora problemi semantici: si comportano come se fossero degli studenti che cercano di compiacere il professore. Diciamo che, anche se non hanno la cognizione per fornire una risposta, “ci provano” comunque, in modo da permettere a un addestratore, a valle, di dire se la risposta va bene o no. È pertanto delicato interfacciarli con un motore di ricerca, perché, soprattutto davanti a domande nuove o formulate in maniera capziosa, i modelli potrebbero fornire risposte assurde, infondate e a volte anche preoccupanti. Il problema è che dall’altra parte non c’è un addestratore, ma una persona che, rivolgendosi al motore di ricerca, confida di ricevere una risposta valida. Emergono quindi rischi evidenti legati alla veridicità e adeguatezza delle informazioni prodotte e alla loro propagazione nel Web.

Allora hanno un senso i timori riguardanti il rischio di diffusione di fake news e altri contenuti tossici?

Il rischio c’è ed è un fenomeno che ha interessato soprattutto alcune versioni precedenti di questi chatbot. Se ad esempio l’utente chiedeva una dimostrazione del fatto che la Terra fosse piatta, il sistema si avventurava nell’elaborazione di una risposta che confortasse la richiesta, argomentando una tesi terrapiattista. Fortunatamente, nelle versioni più aggiornate sono stati introdotti dei correttivi e adesso, rispetto a molte questioni infondate, i sistemi sono in grado di replicare adeguatamente.

Tutto molto affascinante, ma anche inquietante. Sulla scia dei possibili sviluppi, quanto lavoro l’intelligenza artificiale sottrarrà all’uomo?

È indubbio che molte professioni, anche fra quelle che consideriamo creative, subiranno degli stravolgimenti. Si pensi alle diverse professionalità impegnate nella produzione di testi, traduzioni o grafiche. Perché dovrei pagare qualcuno per fare una traduzione se ho un sistema che la realizza gratis e la qualità finale del documento è comunque buona? Ci saranno molte situazioni in cui si creeranno dei rapporti collaborativi, in cui vi sarà cioè un’integrazione tra lavoro umano e lavoro dell’intelligenza artificiale. Bisogna prepararsi a una prospettiva del genere, anche perché è difficile pensare a un settore in cui l’I.A. non intervenga nel prossimo futuro.

Molte professioni subiranno degli stravolgimenti. Ci saranno situazioni in cui si creeranno dei rapporti collaborativi, cioè un’integrazione tra lavoro umano e lavoro dell’intelligenza artificiale

Una sfida anche per i manager. Quanto sarà importante sviluppare competenze  che consentano di cooperare con gli avanzamenti dell’I.A.?

Moltissimo, anche perché sarà il mercato a scegliere, effettuando una selezione tra chi saprà utilizzare questi strumenti e chi rimarrà invece tagliato fuori. Le figure manageriali capaci di interpretare il cambiamento trarranno indubbi vantaggi competitivi e la competizione, come ben sappiamo, è ormai su scala internazionale.

< Articolo Precedente Articolo Successivo >