1100

Rischio influenze

Tra intelligenza artificiale, deepfake, fake news e blackout di internet, il 2024, con elezioni che portano al voto metà della popolazione mondiale, è un anno delicato per le democrazie e per le imprese.

Nel 2024 circa metà della popolazione mondiale è attesa alle urne. Tra elezioni nazionali e locali, si vota in 76 Paesi, tra cui otto dei più popolosi. Dall’India agli Stati Uniti, solo per citarne alcuni. Si è partiti con Taiwan, dove il voto ha segnato i futuri rapporti con la Cina, e si chiuderà con la scelta del futuro inquilino della Casa Bianca, un ruolo conteso tra l’attuale Presidente statunitense Joe Biden e l’ex Donald Trump. Nel mezzo, circa 400 milioni di persone dovranno scegliere i propri rappresentanti all’Europarlamento, che poi provvederà a selezionare i componenti della Commissione europea.

È un anno delicatissimo. Perché i risultati di questa imponente tornata elettorale determineranno i futuri equilibri del globo, mentre le tensioni internazionali, tra invasione dell’Ucraina, guerra in Medio Oriente, tensioni nel mar Rosso surriscaldano la situazione complessiva a livello mondiale. Per questo, preoccupano le possibilità che il voto possa essere manipolato. E preoccupano gli usi deleteri di alcune tecnologie che rischiano di far deflagrare i tentativi di incursione di chi vuole inquinare le campagne elettorali e l’esercizio del voto.

Sorvegliata speciale è l’intelligenza artificiale. E in particolare l’uso di deepfake, ossia la sintesi di immagini e video con l’AI per sovrapporre e combinare il materiale originale con quello manipolato dagli algoritmi. A gennaio ne è stato fatto uso negli Stati Uniti per simulare una chiamata da parte del Presidente Joe Biden che invitava i sostenitori del Partito democratico a non andare a votare alle primarie del New Hampshire. Un rischioso boomerang per il corretto svolgersi della selezione del candidato alle elezioni nazionali. E l’antipasto dei pericoli che questa tecnologia rappresenta. Sostenitori di Trump, per esempio, hanno prodotto una serie di immagini deepfake in cui il magnate è immortalato in mezzo a sorridenti elettori della comunità afroamericana. L’obiettivo è chiaro: avvicinare all’ex Presidente una fetta di elettorato distante dal manifesto politico del tycoon e le modalità per farlo sono piuttosto pedestri, perché le foto false sono stata smascherate in un lampo. Conta, però, la facilità con cui si possono inondare social media e chat di messaggistica di immagini manipolatorie.

Preoccupa, in particolare, l’uso di deepfake, ossia la sintesi di immagini e video con l’AI per sovrapporre e combinare il materiale originale con quello manipolato dagli algoritmi

Le società che sviluppano sistemi di intelligenza artificiale hanno promesso provvedimenti per impedire usi distorti della loro tecnologia. Così hanno fatto i social network: Meta, per esempio, ha promesso di inserire una filigrana per distinguere i contenuti prodotti da modelli di AI generativa. OpenAI che ha sviluppato ChatGPT, a sua volta, assicura maggiore trasparenza. Midjourney, un altro dei sistemi di AI generativa, sta valutando di impedire di creare alcuni tipi di immagini a sfondo politico.

Tuttavia, le prime analisi da parte di organizzazioni ed enti di ricerca indipendenti hanno dimostrato che questo tipo di misure sono fallimentari e facilmente aggirabili. Le big tech non possono ignorare la faccenda. Troppo lassismo potrebbe comportare una stretta normativa di urgenza e legare le mani alle aziende di intelligenza artificiale. Già in Europa le aziende del digitale hanno il loro bel daffare. Da alcuni mesi i principali social network e i motori di ricerca più grandi sono soggetti al nuovo regolamento europeo sui servizi digitali, il Digital services act (Dsa), che include anche obblighi per le piattaforme affinché impediscano un uso distorto dei loro sistemi ai fini elettorali. Tutte hanno annunciato maggiore trasparenza sulle inserzioni pubblicitarie a scopo politico e centri online dove trovare indicazioni su come segnalare le violazioni e verificare le informazioni. A sua volta, la Commissione ha chiesto lumi e promette di stabilire una strategia per mettere al riparo il voto per l’Europarlamento. Il timore principale è che la Russia possa manipolare la campagna per minare la stabilità delle istituzioni comunitarie.

Il problema, però, è che non basta. Ci sono spazi online, come gruppi sui social o chat nelle app di messaggistica che sfuggono a questo controllo. E spesso non serve fare ricorso a tecniche sofisticate come il deepfake. Montaggi di immagini e video per simulare finti articoli di giornale funzionano ancora per diffondere fake news. Così come le attività di siti e portali votati ad alimentare complotti e dietrologie. Non solo. A mettere a repentaglio il corretto svolgimento delle elezioni sono anche metodi come il blackout di internet, adoperato in paesi dove si vuole impedire la partecipazione al voto azzerando le comunicazioni. È già successo in Pakistan, alle Comoros e in Senegal.

Lo strettissimo sentiero delle elezioni 2024 non rappresenta solo una prova esistenziale per la democrazia e un momento decisivo per le aziende tecnologiche per assumersi le responsabilità che il loro ruolo comporta, ma anche un momento delicato per le imprese in generale. La costante instabilità politica che il lungo processo di voto comporta rappresenta di suo un motivo di fluttuazione dei mercati e di incertezza per gli investimenti. Se a una contesa accesa si somma il gioco sporco di tecnologie manipolatorie, il clima per le imprese potrebbe peggiorare.

Un proliferare di contenuti falsi provocherà anche una generale disillusione e un senso di smarrimento e sfiducia verso il mondo dell’informazione e della comunicazione, minando la fiducia dei consumatori che è un potente motore dei mercati

Non solo: un affinamento delle tecnologie di deepfake, sperimentate in una campagna coordinata sul campo elettorale per poterlo manipolare, potrebbe portare a riutilizzarle successivamente in contesti come lo spionaggio industriale o attacchi coordinati a una impresa. Già oggi sistemi di simulazione della voce vengono utilizzati per imitare i ruoli di manager e responsabili di azienda e rubare informazioni sensibili, denari o asset strategici.

Non solo. Un proliferare di contenuti falsi provocherà anche una generale disillusione e un senso di smarrimento e sfiducia verso il mondo dell’informazione e della comunicazione, minando la fiducia dei consumatori che è un potente motore dei mercati. In Australia Pwc ha messo in guardia le aziende: «Su una scala meno globale ma comunque potenzialmente drammatica, anche le singole aziende dovranno essere consapevoli delle implicazioni dei video deepfake. In un’epoca di attivismo degli azionisti e macchinazioni aziendali, non è certamente difficile immaginare che la manipolazione video venga utilizzata per danneggiare il marchio e la reputazione da parte di concorrenti, ex dipendenti (o ex come nel caso del porno di vendetta) o truffatori professionisti. Mentre le aziende potrebbero dedicare tempo a istruire il personale su come individuare video falsi (e ci sono modi, come strani schemi di lampeggiamento, manipolazione di pixel e metadati, audio dal suono metallico), la tecnologia continuerà a migliorare, fino al punto in cui sarà praticamente impossibile identificare un falso senza un’analisi forense approfondita». Un rischio che non siamo pronti a correre, ma che non possiamo ignorare.

< Articolo Precedente Articolo Successivo >