Negli ultimi anni, l’intelligenza artificiale ha smesso di essere un affare per soli esperti e si è progressivamente affermata come una questione eminentemente pubblica, che tocca il cuore della convivenza democratica e della legittimità istituzionale. La diffusione degli algoritmi nei processi decisionali, nei servizi pubblici, nei sistemi educativi, sanitari, giudiziari e nella sicurezza, ha spinto governi e amministrazioni a confrontarsi con un cambio di paradigma: non si tratta più solo di innovare, ma di scegliere consapevolmente in che direzione orientare l’innovazione.
La Pubblica Amministrazione, in particolare, è oggi chiamata a ridefinire il proprio ruolo in un contesto segnato da tecnologie potenti ma opache, spesso sviluppate in ambiti privati e poi trasposte a livello istituzionale. E lo ha fatto, finora, con gli strumenti che le sono propri: iniziative normative, etiche e regolatorie, come l’AI Act europeo, i codici di condotta elaborati da agenzie nazionali, la costituzione di task force, la redazione di strategie nazionali sull’IA e linee guida settoriali Ricordiamo, per citare alcuni tra i documenti più recenti: la “Strategia Italiana per l’Intelligenza Artificiale 2024-2026” pubblicata da AgiD e Dipartimento per la trasformazione digitale nel luglio scorso; le Linee Guida di AgID sull’adozione, l’acquisto e lo sviluppo di sistemi di IA nella Pubblica Amministrazione previste dal Piano Triennale 2024-2026 e inserite tra le azioni strategiche proprio nella Strategia Italiana per l’IA; le “Linee guida sull’Intelligenza Artificiale nel mondo del lavoro” sulle quali il Ministero del Lavoro e delle Politiche Sociali ha condotto tra aprile e maggio una consultazione pubblica per raccogliere osservazioni e commenti alla prima versione del documento.
Si tratta di strumenti indispensabili, a cui va riconosciuto un approccio pratico e l’importanza di tracciare un quadro di riferimento in un contesto in continuo aggiornamento. Tuttavia, questi documenti operano “a valle” dello sviluppo tecnologico, cercando di contenere o indirizzare effetti già in atto, spesso in base a evidenze parziali. È proprio questa asimmetria temporale tra innovazione e regolazione che David Collingridge (1980) ha definito con precisione nel suo celebre dilemma del controllo della tecnologia: “nelle prime fasi dello sviluppo tecnologico, l’intervento è possibile ma l’impatto è incerto; quando l’impatto diventa chiaro, è ormai troppo tardi per intervenire efficacemente senza costi eccessivi”.
Collingridge illustra il paradosso con un aneddoto emblematico: agli inizi del Novecento, la Royal Commission britannica incaricata di valutare l’impatto delle automobili sottovalutò totalmente le conseguenze sistemiche del mezzo, concentrandosi su aspetti superficiali come la polvere sollevata dalle ruote. Solo dopo che le città furono riconfigurate intorno alla mobilità privata – con impatti ambientali, sociali e sanitari devastanti – si comprese l’errore. Ma a quel punto l’automobile era divenuta troppo “strutturale” per essere rimessa in discussione.
Oggi, con l’intelligenza artificiale, ci troviamo ancora in una fase critica: le tecnologie sono in piena evoluzione, le infrastrutture sociotecniche in via di costruzione, i modelli di governance in cerca di equilibrio. Ma l’IA è solo una delle grandi transizioni in corso: a essa si affiancano la crisi ambientale e la trasformazione demografica, che impongono di ripensare radicalmente il modo in cui le istituzioni immaginano, pianificano e agiscono nel tempo.
In questo contesto, governare non può più significare solo risolvere problemi esistenti, ma costruire scenari desiderabili. È qui che si inserisce la proposta teorico-pratica della anticipatory governance.
L’idea che il settore pubblico debba prevenire anziché reagire non è nuova. Già nel 1992, Osborne e Gaebler, nel loro celebre Reinventing Government (trad. it. 1993), proponevano un modello di “governo imprenditoriale” in cui l’efficacia dell’amministrazione si misurava sulla capacità di intercettare i problemi prima che esplodessero. L’“anticipatory government” da loro delineato è centrato sulla pianificazione strategica, sulla decentralizzazione, sulla valutazione d’impatto, sull’uso flessibile delle risorse.
Negli stessi anni, in ambito canadese, Blair Feltmate (1993) radicalizza e arricchisce questa visione. Secondo Feltmate, anticipare significa andare oltre la prevenzione tecnica: serve una visione istituzionale che integri foresight, partecipazione civica, apprendimento adattivo e capacità di risposta trasformativa. Per questo propone il concetto di anticipatory governance come architettura permanente della PA, non come singola funzione: un’infrastruttura culturale e organizzativa capace di immaginare il futuro per tempo, negoziare visioni alternative, testare soluzioni, modificare rotta.
L’approccio di Feltmate sposta il baricentro dal management all’intelligenza istituzionale distribuita, prefigurando molte delle pratiche oggi centrali: citizen assemblies, policy labs, scenari deliberativi, regolazione sperimentale (regulatory sandboxes), strumenti di valutazione partecipata.
Da Feltmate in poi, la riflessione si biforca in due percorsi principali:
- La via amministrativa e manageriale
Qui l’anticipatory governance viene declinata come capacità organizzativa: foresight, budgeting adattivo, sistemi di allerta precoce, analisi di scenario, gestione dell’incertezza. È il dominio dei policy labs pubblici, delle strategie nazionali di innovazione responsabile, dei progetti promossi dalla Commissione Europea, dall’OCSE, e da reti come la Global Foresight Community. - La via tecno-scientifica e sociale
In parallelo, studiosi come David Guston (2002, 2014), Sheila Jasanoff (2015) e altri esponenti degli STS (Science and Technology Studies) ridefiniscono l’anticipazione come governance della conoscenza, dell’etica e dell’immaginario. Il tema centrale non è solo “cosa possiamo fare”, ma “cosa vogliamo essere”, e quali visioni del mondo implicano le scelte tecnoscientifiche.
Entrambe le visioni convergono su un punto fondamentale: l’anticipazione non è un esercizio solitario di esperti, ma un processo democratico di apprendimento istituzionale.
Guston (2004) e Miller (2015) identificano quattro pilastri dell’anticipatory governance:
- Foresight: capacità di esplorare scenari alternativi e di lungo termine;
- Engagement: inclusione di attori plurali e della cittadinanza nei processi decisionali;
- Reflexivity: attitudine critica verso le proprie ipotesi e strumenti;
- Integration: connessione sistemica tra ricerca, policy, valori sociali e istituzioni.
Queste dimensioni permettono di superare la dicotomia reazione/previsione, offrendo un quadro dinamico e aperto in cui le politiche pubbliche possono essere non solo strumenti di controllo, ma dispositivi di creazione collettiva del futuro.
Riprendere oggi l’approccio dell’anticipatory governance non è solo utile: è urgente. Il ciclo del PNRR sta per concludersi. Si apre una nuova stagione, in cui l’Italia deve decidere non solo cosa fare con le risorse residue, ma quale visione progettuale assumere per affrontare le transizioni in corso.
La PA, durante l’attuazione del PNRR, ha dimostrato una inedita capacità di apprendimento, sperimentazione e coordinamento. Ora si tratta di non disperdere questo capitale istituzionale, ma di istituzionalizzarlo, trasformandolo in pratica ordinaria.
L’anticipatory governance può offrire la cornice per:
- Colmare il divario tra tecnologia e valore pubblico.
- Creare laboratori normativi e istituzionali per affrontare gli scenari aperti dalla diffusione dell’IA.
- Sviluppare spazi di ascolto, confronto e scenario building con cittadini e stakeholder.
- Favorire l’emersione di nuove figure professionali pubbliche: alfabetizzatori del futuro, facilitatori di modulazione, custodi dell’errore.
Il governo dei processi in atto, infatti, non può essere delegato esclusivamente a ingegneri, economisti, programmatori e, tantomeno, amministrativisti. È una sfida profondamente democratica, che riguarda la giustizia intergenerazionale, la coerenza valoriale, la capacità di apprendere dall’incertezza.
L’alternativa è la passività istituzionale: comportarsi come la rana che vede solo ciò che si muove, o come la Royal Commission che sottovalutò l’impatto dell’automobile. Ma oggi abbiamo gli strumenti, teorici e pratici, per aprire gli occhi prima del tempo.
Governare i processi di trasformazione in atto – e più in generale il cambiamento – significa decidere insieme quale futuro rendere possibile. Il momento è solenne e il 2026 si prospetta come un importante anno di cerniera tra le pubbliche amministrazioni che abbiamo oggi e quelle che, per soluzioni, approccio, competenze e visione, si candidano a gestire il futuro.
Per questo vogliamo avviare da oggi un percorso di riflessione, di stimolo, di approfondimento che ci porterà da qui al prossimo giugno a FORUMPA 2026, per dare spazio alle PA che non guardano semplicemente a se stesse ma mettono al centro il loro ruolo nel costruire il futuro di questo paese. FORUM PA 2026 sarà un momento condiviso per allenare visioni e immaginare ciò che ancora non c’è. Solo così possiamo davvero generare futuro.
- Collingridge, D. (1983). Il controllo sociale della tecnologia, Editori Riuniti, Roma, 1983.
- Feltmate, B. (1993). Anticipatory Governance and the Management of Risk. University of Waterloo (tesi e contributi istituzionali canadesi).
- Guston, D. H. (2002). “Innovation Policy: Not Just a Jumbo Shrimp”. Issues in Science and Technology, 19(1).
- Guston, D. H. (2004). “Responsible Innovation: A New Agenda for Research Policy and Practice”. Technology in Society, 26(2–3).
- Guston, D. H. (2014). Understanding Anticipatory Governance. In: M. Grunwald (Ed.), The Oxford Handbook of Climate Change and Society. Oxford University Press.
- Jasanoff, S. (2015). Future Imperfect: Science, Technology, and the Imaginations of Modernity. In: Jasanoff & Kim, Dreamscapes of Modernity. University of Chicago Press.
- Miller, C. A., & Guston, D. H. (2015). “Governance of Socio-technical Systems”. In: Handbook of Science and Technology Policy. MIT Press.
- Osborne, D., & Gaebler, T., Reinventare il governo, Garzanti, 1993.
- Programma Strategico per l’Intelligenza Artificiale 2022–2024 (MUR, MISE, MID).
- Documenti e linee guida di AGID e Dipartimento per la trasformazione digitale su IA, etica e procurement.
***** l’articolo pubblicato è ritenuto affidabile e di qualità*****
Visita il sito e gli articoli pubblicati cliccando sul seguente link