Responsabilità amplificate

La crescente adozione di agenti AI porterà alla dissoluzione del concetto di “compito semplice”. Il lavoro sarà riclassificato per livello di astrazione, non più per routine o volume

Il prossimo collega che assumerai non ha una scrivania, non beve caffè e non si lamenta del capo. È un agente AI, ed è probabilmente il primo di una lunga serie. Se oggi usiamo l’intelligenza artificiale per semplificare attività puntuali – scrivere una mail, riordinare una tabella Excel, generare del codice – sta emergendo una nuova generazione di tecnologie capaci di fare molto di più: sistemi in grado di agire autonomamente, prendere decisioni tattiche, dialogare tra loro, imparare dai risultati e ottimizzare le strategie in tempo reale.

Parliamo di agenti AI: software orchestratori, già oggi sperimentati in piattaforme come Auto-GPT, AgentGPT, CrewAI o nel nascente ecosistema di HuggingGPT. Non parliamo semplicemente di chatbot evoluti, ma di ecosistemi digitali capaci di comportarsi come mini-team operativi. In rete, si moltiplicano già i video di early-adopter in grado di affidare all’AI l’intera gestione di un progetto – dallo scraping dei competitor fino alla pianificazione di un piano marketing.

In rete, si moltiplicano già i video di early-adopter in grado di affidare all’AI l’intera gestione di un progetto, dallo scraping dei competitor fino alla pianificazione di un piano marketing

Immaginate un project manager che, per definire la roadmap di un nuovo prodotto, attiva il proprio staff digitale per analizzare i dati di mercato, generare previsioni di vendita e simulare potenziali rischi di implementazione. O una responsabile della comunicazione che lavora con un pool di agenti per analizzare milioni di review, conversazioni online e trend emergenti istante per istante. Tutto avviene mentre lei supervisiona, corregge la rotta, prende decisioni sulle sintesi strategiche.

Ogni volta che emerge una nuova tecnologia si torna a parlare del rischio di una sostituzione di massa dei lavoratori e delle lavoratrici, e sono pronto a scommettere che neanche stavolta ciò avverrà: il lavoro non verrà sostituito, ma potenziato. Il paradosso è che assisteremo a una maggiore semplificazione da una parte, ma anche maggiore profondità dall’altra.

Uno degli effetti più radicali dell’adozione diffusa degli agenti AI sarà infatti la dissoluzione del concetto di “compito semplice”. Il lavoro verrà riclassificato per livello di astrazione, non più per routine o volume. I task ripetitivi – redigere report, categorizzare ticket di supporto, normalizzare dati – saranno automatizzati. Le attività “difficili”, come esplorare opzioni strategiche o fare analisi predittive, saranno accessibili tramite pre-processing e simulazioni offerte dagli agenti.

Le attività “impossibili” – monitorare in tempo reale decine di sistemi ambientali o prevedere il deterioramento strutturale di un’infrastruttura con cinque anni d’anticipo – diventeranno le nuove frontiere. Grazie a una collaborazione sempre più profonda tra intelligenze artificiali e umane, nascerà un effetto ascensore: il livello minimo per rimanere rilevanti nel sistema aumenterà. Non sarà più sufficiente “fare bene il proprio lavoro”. Occorrerà saper espandere lo spazio del lavoro stesso.

Per quanto abili, gli agenti AI restano vincolati a una forma di intelligenza ristretta: ottimizzata per determinati problemi, ma incapace di contesto vero. I Large language models sono potenti simulatori statistici – sanno completare, non comprendere. Emulano il pensiero, non lo esercitano. Sono privi di corpo, storia, intuizione, soggettività.

Noi, invece, coltiviamo una forma di intelligenza pluralistica. Fatta di analogie, emozioni associate, salti creativi, senso del tempo e della priorità. Una maggiore comprensione dell’intelligenza artificiale ci porta anche inevitabilmente ad avere una maggiore comprensione della nostra – e ben più ricca – intelligenza, un aspetto questo che ho esplorato a fondo nel docufilm “HI! Human Intelligence”, disponibile su Amazon Prime Video.

Ecco perché mentre ci abitueremo alla collaborazione profonda con uno staff AI, diventerà vitale il riconoscimento del perimetro delle capacità artificiali, perché contrariamente alla narrazione dominante l’AI non riduce la responsabilità, ma la amplifica.

Delegare attività complesse a un agente AI – come il monitoraggio di transazioni sospette o la generazione di scenari Esg – non ci esonera dalla supervisione: ci obbliga a ridefinire i limiti operativi, i criteri di azione, i fallback in caso di incertezza. Diventiamo curatori delle nostre stesse deleghe.

È un aspetto che emerge ogni giorno quando supportiamo le aziende nell’adozione delle AI generative: servono nuovi modelli di governance AI, nuovi strumenti di audit algoritmico capaci di spiegare non solo cosa ha fatto l’AI, ma perché. Inoltre, una volta che un lavoratore si trova a gestire il proprio microstaff, la varietà degli agenti diventerà cruciale, perché non tutte le AI sono uguali. Già oggi esistono agenti più esplorativi, altri più conservativi. Si svilupperà una vera e propria “psicologia degli agenti”, dove il successo di un progetto dipenderà dalla capacità del professionista di scegliere – o addestrare – l’IA giusta per il compito giusto.

La scelta del giusto strumento diventerà fondamentale nella misura in cui per la prima volta potremo non solo automatizzare task, ma accedere a vasti paesaggi informativi inediti, ancora tutti da esplorare. Una supply chain globale, milioni di conversazioni sui social, una rete di sensori ambientali: nessun umano potrebbe interpretare in tempo reale questi volumi. Un agente AI può farlo, ciò che però non può fare è restituire un senso da questi dati.

In questo, gli agenti agiscono come “lenti cognitive” narrative – o, come alcuni studiosi, tra cui Massimo Chiriatti e Giuseppe Riva lo hanno di recente rinominato, un “sistema 0”. Le AI tagliano, sintetizzano, creano una narrazione con un inizio, un conflitto e una proposta. In un mondo opaco, saranno i nostri interpreti, e quindi i nostri co-autori. Così torniamo a una domanda centrale: chi scrive davvero quella storia? L’algoritmo? L’umano che lo ha addestrato? La selezione invisibile dei dati?

La risposta – parziale ma urgente – è che dovremmo essere ancora noi.

< Articolo Precedente Articolo Successivo >