C’è un dato poco noto in Italia riguardante le elezioni americane, fondamentale per comprendere meglio il sentimento del paese e ciò che sta accadendo e accadrà da qui alle imminenti elezioni di novembre, che vedranno di nuovo fronteggiarsi Joe Biden e Donald Trump, esattamente come 4 anni fa: un americano su cinque è ancora convinto che le ultime elezioni siano state truccate.
Nonostante tutte le prove dimostrino il contrario e nonostante uno sforzo senza precedenti, anche da parte delle grandi aziende della Silicon Valley, per contenere il fenomeno delle fake news, questa idea resta radicata in una percentuale troppo alta di americani. Negli ultimi 10 anni, ogni elezione si sta rivelando un terreno sempre più fertile per la disinformazione e le interferenze volte a influenzare le elezioni. Questa elezione del 2024 si appresta ad affrontare nuove sfide con un’eccezionale vulnerabilità agli attacchi della propaganda, amplificati dalle potenzialità sempre più sofisticate dell’intelligenza artificiale (AI).
Mi ha molto colpito una recente intervista letta su The Guardian al professor Renée DiResta, responsabile della ricerca tecnica presso l’Internet Observatory di Stanford, un programma universitario che studia gli abusi della tecnologia dell’informazione. Il professore ha analizzato come gli ultimi sviluppi nell’AI stiano influenzando le campagne elettorali e su come la società si stia adeguando a una nuova realtà creata artificialmente. Se ci pensiamo, il tema dei deepfake (video generati dal computer di un evento mai accaduto) non è nuovo.
Negli ultimi 10 anni, ogni elezione si sta rivelando un terreno sempre più fertile per la disinformazione
Già ai tempi di Obama vi furono tentativi di intromissione con video generati dal computer, e la tecnologia era già abbastanza matura nei risultati finali. Cosa sta quindi realmente cambiando ora? Ci sono stati due importanti sviluppi in due diversi campi negli ultimi mesi: quello di generazione testuale e quello di generazione di immagini. Il primo è l’ascesa di ChatGPT, diventato disponibile a un mercato di massa che ha permesso alla maggior parte dei cittadini, anche con scarse competenze informatiche, di rendersi conto di quanto sia facile utilizzare questi tipi di strumenti e delle potenzialità che offrono. Il secondo è la possibilità di creare immagini fotorealistiche di cose che non esistono nella realtà con Stable Diffusion o Midjourney (due applicativi molto diffusi e disponibili online).
Queste due cose oggi fanno paradossalmente molto più paura di un video e possono avere effetti molto più catastrofici di un video deep fake in una attività di propaganda. Il motivo è semplice: per usare il video in un ambiente politico devi davvero colpire nel segno con il contenuto del messaggio. In un video ci sono tanti indizi rivelatori, molti modi in cui puoi determinare se è generato artificialmente o è reale e, inoltre, quando un video ha un impatto molto forte, è visto da milioni se non miliardi di persone che a quel punto hanno modo di verificarlo e interagire.
Potremmo definirla una risposta immunitaria naturale. Testi e immagini, invece, hanno tutto il potenziale per un impatto maggiormente incisivo in uno scenario elettorale perché possono essere più sottili e duraturi. Le elezioni richiedono mesi di campagna durante i quali le persone si fanno un’opinione.
Con questo tipo di intelligenza artificiale è molto più facile generare contenuti altamente personalizzati e automatizzarne la diffusione. Solo pensando alle elezioni di quattro anni fa, la grande paura delle attività di propaganda politica era legata all’utilizzo di Bot, programmi per computer progettati per imitare o sostituire le azioni di un essere umano eseguendo attività automatizzate e ripetitive. Twitter o Meta non facevano nulla per fermare il fenomeno, anche se paradossalmente era molto facile da smascherare; molti degli account dicevano esattamente la stessa cosa allo stesso tempo, in quanto troppo costoso e dispendioso in termini di tempo generare un messaggio unico per ciascun account falso.
Ora, però, con l’AI generativa si possono generare contenuti altamente personalizzati e automatizzare la loro diffusione senza sforzo, decidendone tempi e modi di somministrazione. Sono la scala e la portata del fenomeno a fare paura aprendo a scenari inediti e rendendo questo fenomeno profondamente diverso. Le persone sono sempre state in grado di utilizzare strumenti di propaganda; questo ne cambia in maniera mostruosa la velocità di propagazione.
A questo punto, una delle vere sfide è quella educativa. Quando i media hanno iniziato a parlare dei deepfake, le persone hanno iniziato a capire che stavamo entrando in un mondo in cui i video potrebbero non essere ciò che sembrano.
Diventa però irragionevole aspettarsi che gli utenti che interagiscono con qualcuno su una piattaforma di social media possano essere in grado di capire se la persona con cui stanno parlando è reale.
Saranno le piattaforme a dover prendere provvedimenti per identificare contenuti generati artificialmente. La domanda finale diventa quindi: come pensano le grandi aziende tech, strumento principale di disseminazione di queste informazioni, di muoversi rispetto alle loro responsabilità e quali saranno le figure manageriali preposte per fronteggiare questa sfida inedita?