1060

I tre nodi dell’IA

Significato, apprendimento e tempo: tre dimensioni che i manager devono saper interpretare e governare perché l’IA crei valore all’interno delle organizzazioni

Francesco Seghezzi, Presidente di Associazione ADAPT

 

Ogni nuova tecnologia viene raccontata come una frattura radicale. Con l’intelligenza artificiale questa narrazione ha assunto toni ancora più marcati: si parla di rivoluzione silenziosa, di sostituzione imminente, di algoritmi che prenderanno decisioni al posto nostro. È una rappresentazione potente, ma in parte fuorviante. Non perché l’IA non stia producendo effetti profondi, bensì perché concentra l’attenzione nel punto sbagliato. Gli impatti non si comprendono davvero guardando solo alle statistiche sull’occupazione. Si producono dentro le organizzazioni, dove la tecnologia incontra ruoli, gerarchie, metriche e culture professionali. Più che inseguire previsioni quantitative, che probabilmente registreranno trasformazioni non sempre positive, conviene osservare i nodi già visibili nel lavoro quotidiano. È lì che l’IA entra come strumento capace di modificare tempi, aspettative e criteri di valutazione.

Il primo nodo riguarda il significato. Nel nostro immaginario il termine “intelligenza” tende a prevalere su “artificiale”, rafforzando l’idea di sistemi che comprendono e decidono. Ma tutto dipende da cosa intendiamo per intelligenza. Se la definiamo come capacità di attribuire senso, orientare l’azione in modo intenzionale, comprendere un contesto e assumere responsabilità, allora la distanza tra intelligenza umana e intelligenza artificiale resta netta. L’IA oggi disponibile, basata su modelli probabilistici addestrati su grandi volumi di dati, è estremamente efficace nel calcolare, correlare, sintetizzare e ottimizzare. Produce risposte plausibili, spesso sofisticate. Ma non comprende nel senso forte del termine. L’aggettivo “artificiale” segnala proprio questo: ciò che la macchina restituisce è il risultato di una computazione rispetto a obiettivi fissati altrove, non l’esito di una comprensione autonoma. L’intenzionalità è esterna. Nelle organizzazioni questa distinzione è decisiva. L’azione collettiva non è guidata solo da informazioni, ma da significati condivisi. Il senso di ciò che si fa nasce da pratiche, relazioni e routine che permettono di stabilire che cosa conta e come agire. Quando questa differenza si offusca, cresce la tentazione di trattare l’IA come sostituto del giudizio, non come supporto. E si rischia di delegare allo strumento non solo l’elaborazione, ma la definizione stessa di ciò che è rilevante.

Ciò che la macchina restituisce è il risultato di una computazione rispetto a obiettivi fissati altrove, non l’esito di una comprensione autonoma

Da qui deriva un secondo nodo, quello dell’apprendimento. Se l’intelligenza artificiale diventa il primo accesso alla conoscenza, soprattutto per chi non possiede basi solide, può sostituire il processo di comprensione invece di sostenerlo. Si ottiene una risposta ben formulata, ma non necessariamente una capacità di giudizio. Si consolida un’illusione di sapere che nel lavoro si traduce in dipendenza proprio quando servirebbero valutazione contestuale e responsabilità. Il quadro cambia quando lo strumento è nelle mani di chi dispone già di competenze ed esperienza. In quel caso l’IA può amplificare capacità esistenti: accelera la ricerca di informazioni, facilita la sintesi, riduce il carico su attività ripetitive. Le risorse liberate possono essere reinvestite in interpretazione, controllo di qualità, decisione e innovazione. La differenza, quindi, non è nella tecnologia in sé, ma nelle condizioni formative e organizzative in cui viene adottata. L’IA resta uno strumento eterodiretto. Non decide perché fare qualcosa, al massimo propone come farla in modo più efficiente secondo metriche già definite. Se quelle metriche sono orientate solo a velocità e costo, lo strumento tenderà a rafforzare quella impostazione, rendendo meno visibili le componenti qualitative del lavoro: la relazione, la cura, l’adattamento a situazioni non standard.

Il terzo grande tema è il tempo. L’effetto più immediato dell’intelligenza artificiale è la liberazione di tempo: alcune attività si completano più rapidamente, altre si semplificano, altre vengono delegate. Ma tempo liberato non equivale automaticamente a produttività. Il guadagno iniziale può migliorare gli indicatori, spesso però è un effetto una tantum. Senza ripensare ruoli, obiettivi e coordinamento, la spinta si esaurisce. La tecnologia non genera produttività da sola, genera tempo. La produttività dipende da come l’organizzazione decide di utilizzarlo. Se non viene reinvestito in miglioramento dei processi, formazione, sviluppo di nuovi servizi o rafforzamento delle relazioni con clienti e utenti, resta semplicemente tempo liberato. Ed è qui che il tema della sostituzione torna concreto. In molte organizzazioni il tempo risparmiato viene letto come costo da comprimere, non come risorsa da riallocare, e diventa l’argomento più semplice per ridurre organici o non sostituire chi esce.

In questo quadro torna centrale anche la figura dei manager. Per anni il management è stato letto soprattutto come funzione di controllo, misurazione e allocazione efficiente delle risorse ma l’ingresso dell’IA mostra tutti i limiti di una lettura solo tecnico-amministrativa del ruolo. Se una parte crescente delle attività può essere accelerata o standardizzata, il compito dei responsabili non si riduce: cambia natura. Diventa più importante saper interpretare contesti, chiarire priorità, rendere espliciti i criteri con cui si decide che cosa ha valore e che cosa no. Il manager non è semplicemente colui che introduce uno strumento nuovo, ma chi governa le condizioni del suo uso: formazione, tempi di apprendimento, redistribuzione dei carichi, riconoscimento delle competenze, presidio della qualità. Senza questa mediazione il rischio è duplice: da un lato l’adozione superficiale, che produce solo accelerazione e pressione; dall’altro una delega impropria alla macchina di valutazioni che restano inevitabilmente umane e organizzative. Anche per questo l’IA non indebolisce il management, ma lo espone a una responsabilità più esigente.

Se una parte crescente delle attività può essere accelerata o standardizzata, il compito dei responsabili non si riduce: cambia natura

C’è infine un aspetto meno visibile: il tempo risparmiato tende a restare invisibile, soprattutto in contesti poco strutturati. Chi usa bene l’IA finisce prima, ma l’organizzazione non sempre intercetta quel guadagno. Mancano strumenti per renderlo osservabile e criteri per riallocarlo. Il beneficio resta individuale e non diventa miglioramento organizzativo. Si crea così una tensione tra autonomia e coordinamento e nuove asimmetrie tra chi padroneggia gli strumenti e chi ha responsabilità formali ma vede meno il lavoro reale.

In definitiva, il governo dell’intelligenza artificiale non è prima di tutto un problema tecnico. È una questione organizzativa e politica. Implica una rinegoziazione del patto nelle imprese: cosa ci si aspetta dalle persone quando alcune attività richiedono meno tempo? Come si valuta il contributo? Quali attività diventano centrali? Senza risposte esplicite, l’IA rischia di aumentare disorganizzazione e disagio invece di produrre qualità del lavoro e produttività duratura.

< Articolo Precedente Articolo Successivo >