Il tema della sostituzione del lavoro con l’intelligenza artificiale è al centro di un intenso dibattito che unisce economia, tecnologia e società. Capire quanto la macchina rimpiazzi l’uomo e quanto, invece, lo affianchi richiede strumenti di analisi più precisi.
Misurare la sostituzione uomo-macchina
Quanto lavoro umano è sostituito dall’intelligenza artificiale? Ecco una domanda importante priva di risposta non per mancanza di opinioni, ma di misure. Infatti, per misurare la sostituzione uomo-macchina dovremmo sapere, per ogni contesto lavorativo, chi stia eseguendo il compito (essere umano, IA, o entrambi), quanto la tecnologia intervenga sui diversi compiti del lavoro umano, come modifichi la produttività, la qualità e la centralità del lavoro umano. Informazioni sul chi, quanto e come sono necessarie perché delineano l’impegno cognitivo dell’utente nell’utilizzazione dell’intelligenza artificiale per svolgere un dato compito.
Esempi concreti di interazione con l’IA
Permettetemi un esempio. Un’insegnante di liceo che ha poco tempo si rivolge ad un modello linguistico per preparare una lezione sul canto di Ulisse nella Divina Commedia. Con un prompt secco chiede al modello di preparargli alcune slide di una presentazione per la sua classe di liceo, includendovi un’introduzione, un’analisi del testo e del suo significato, una contestualizzazione storica e una conclusione.
In questo caso il chi è l’insegnante, il quanto – l’occupazione orizzontale dei compiti del lavoro da parte della macchina – è significativo poiché praticamente ogni compito necessario per preparare la lezione è realizzato dall’IA, e il come – cioè l’uso creativo o sostitutivo della tecnologia – è rivelatore di un basso livello di agency da parte dell’insegnante poiché l’output è ricevuto per lo più passivamente.
Il concetto di agency nel rapporto con l’IA
Box 1: Il concetto di agency.
L’insegnante avrebbe potuto interagire diversamente con il modello. Avrebbe potuto approcciare il prompting con una sua tesi, per esempio, presentare Ulisse come archetipo dell’uomo moderno che sfida l’ignoto, e far dialogare Dante con le grandi domande dell’era digitale. Avrebbe quindi potuto esplorare, con un prompting serrato con il modello, le connessioni tra l’Ulisse dantesco e il tema dell’innovazione tecnologica circoscrivendo, dopo ciascuna risposta, l’oggetto del suo ragionamento con richieste volte a plasmare e raffinare l’output ottenuto per renderlo coerente con il messaggio desiderato.
Il quanto, e il come del rapporto tra lavoro umano e IA sarebbero stati diversi. L’IA avrebbe arricchito, stimolato, fornito materia grezza, senza occupare tutti i compiti del lavoro poiché l’insegnante avrebbe tenuto fermamente in mano il timone facendo della tecnologia un uso creativo e incrementale. A dispetto della similarità delle circostanze, i due casi descrivono interazioni tra il lavoro umano e l’IA che si portano dietro conseguenze diverse, riassumibili, in queste pagine, in una variabile che distingue i due casi: il livello di agency profusa dall’insegnante.
Più agency l’utente riversi nell’utilizzazione dell’IA più la tecnologia è incrementale invece che sostitutiva perché la capacità di sostituire il lavoro non è una caratteristica intrinseca della tecnologia. L’agency è quindi il discrimine. Inoltre, a dispetto dei timori sollevati dalle caratteristiche tecnologiche dell’intelligenza artificiale, oggi essa è sostitutiva con il consenso degli esseri umani. Una nuova base informativa, il Claude Economic Index, consente di difendere entrambe le affermazioni alla luce dell’effettiva utilizzazione che chi lavora fa dell’IA.
Limiti degli strumenti economici tradizionali
Box 2: Capacità incrementale e automazione.
Misure di impatto sul lavoro
Per diventare dirimente tra capacità incrementale e sostituzione del lavoro, l’agency deve superare alcune sfide. La prima è quantitativa: trovare una buona misura. La partenza è già in salita. Gli strumenti che la scienza economica usa per misurare l’impatto dell’IA sul lavoro non catturano la dimensione cognitiva del lavoro umano nell’utilizzazione dell’intelligenza artificiale.
Essi ritengono che il discrimine tra capacità incrementale e sostituzione dipenda dalle caratteristiche della tecnologia e non osservano il comportamento umano. Vediamo brevemente questi strumenti dell’economia e i loro limiti.
Elasticità di sostituzione
Il primo strumento è l’elasticità di sostituzione tra capitale e lavoro [1]. Essa misura quanto facilmente un’impresa (o un’economia) possa rimpiazzare il lavoro umano con capitale (macchine, infrastrutture, tecnologie), mantenendo lo stesso livello di output. In generale, se la tecnologia migliora, sarà più capace di sostituire il lavoro, con effetti sulla distribuzione dei benefici derivanti dal progresso tecnologico, sulla disuguaglianza dei redditi e sulla capacità dell’impresa (o dell’economia) di portare a compimento compiti cognitivi complessi.
Il grado di sostituibilità (indicato con s) misura quanto cambi il rapporto tra capitale e lavoro (cioè quanta tecnologia sia usata al posto delle persone) quando cambi il prezzo relativo dei due fattori, cioè il salario rispetto al costo del capitale. In altre parole, se s fosse maggiore di 1 e il salario crescesse, l’impiego di capitale aumenterebbe di più della diminuzione dell’utilizzazione del lavoro, indicando chiaramente un effetto di sostituzione. Se invece s fosse minore di 1 e il salario crescesse, l’impiego di capitale aumenterebbe meno della diminuzione nella utilizzazione del lavoro, per cui l’effetto di sostituzione sarebbe modesto.
Una prima risposta alla domanda sugli effetti dell’IA sul lavoro è quindi calcolare s. Senonché, l’intelligenza artificiale non è un bulldozer digitale che sostituisce forza lavoro indistinta. È, invece, una general-purpose technology [2] [3] che può sostituire, affiancare, trasformare il lavoro umano in molti modi, secondo caratteristiche che dipendono dalle specifiche circostanze dei compiti da sostituire e dalle attitudini degli utenti. La logica capitale/lavoro è troppo grezza per catturare queste sfumature.
Lavoro e compiti
Dati i limiti dell’elasticità di sostituzione, gli economisti hanno proposto un altro approccio nel quale il lavoro non è un unico fattore indistinto ma un’aggregazione di compiti (task) che, tutti insieme, lo caratterizzano.
Per esempio, un medico diagnostica, prescrive farmaci, ma anche ascolta i pazienti, ne osserva le caratteristiche psicosomatiche e li rassicura. Compiti diversi reagiscono diversamente in termini di sostituibilità all’evoluzione tecnologica per cui il capitale (inclusa l’IA) può sostituire alcuni task ed essere complementare ad altri, anche all’interno dello stesso lavoro [4] [5] [6].
In generale, i compiti più facilmente automatizzabili sono quelli ‘routinari’, vale a dire, ripetitivi, codificabili e descritti da regole ben definite. Questi compiti sono presenti sia nei lavori manuali (assemblaggio in fabbrica), sia in quelli cognitivi (registrazione contabile) e sono più facilmente sostituibili da computer, robot e, ora, modelli di IA. Per contro, i compiti non routinari (pensate al problem solving creativo, all’empatia interpersonale o alla gestione dell’incertezza), sono più resistenti all’automazione e ancorati all’intervento umano qualificato.
Sebbene i modelli task-based abbiano permesso una maggiore precisione nella valutazione del rischio di automazione per diversi tipi di lavoro e lo sviluppo di politiche di formazione mirate, essi assumono che la natura dei task sia fissa. In realtà, l’IA può trasformare i compiti, non solo sostituirli, per cui l’ipotesi di invarianza dei task è difficile da accettare. Soprattutto, dal punto di vista cognitivo, le misure che riguardano i task non osservano l’uso reale della tecnologia e trascurano l’intenzionalità, cioè come il lavoratore scelga di avvalersi dell’IA.
AI Exposure Score
Il terzo strumento di misurazione è recente [7]. Sulla spinta dell’impatto dei modelli di intelligenza artificiale generativa gli economisti hanno cercato strumenti per stimare quali lavori siano più ‘a rischio’ o, per meglio dire, più esposti all’uso dell’intelligenza artificiale. Diversamente dagli altri due strumenti, in questo approccio non si misura l’effettiva sostituzione ma il suo rischio, attraverso l’AI Exposure Score. Attraverso un sofisticato metodo che combina la descrizione delle attività lavorative, delle capacità dell’IA generativa e il matching semantico tra IA e lavoro umano, lo Score assegna un valore numerico ad ogni occupazione. Il numero riflette il grado di sovrapposizione tra ciò che il lavoro richiede e ciò che l’intelligenza artificiale può fare.
L’AI Exposure Score è un’interessante evoluzione nella mappa degli strumenti di misurazione della natura dinamica, adattiva e interattiva dell’intelligenza artificiale nei processi lavorativi, affetta però da un importante limite: lavorando nello spazio del potenziale, non osserva ciò che realmente accade tra IA e lavoro. Ma ciò che accade è la base informativa per una misura che incorpori gli aspetti cognitivi della relazione con l’IA, per cui la prima sfida per l’agency non è ancora vinta.
Misurare l’uso rivelato. Il Claude Economic Index
Un recente articolo, scritto da un team di ricercatori di Anthropic e pubblicato a febbraio 2025 negli ArXiv [8], offre una soluzione all’agency per superare la sfida della misura: il Claude Economic Index. Combinando milioni di conversazioni anonimizzate tra utenti e il modello Claude, catturate tramite la piattaforma Clio, con i compiti e le occupazioni contenute nel database O*NET del Dipartimento del Lavoro statunitense, l’indice genera una fotografia dinamica dell’uso dell’intelligenza artificiale: in quali professioni entra di più (chi)? In quali compiti (quanto)? E soprattutto: con quali modalità (come) il lavoratore approccia questa nuova tecnologia, per farsi potenziare o sostituire?
L’innovazione del Claude Economic Index è, anzitutto, metodologica. L’obiettivo è puntato non su ciò che accadrà ma su ciò che di fatto accade quando nello svolgere il proprio lavoro si accoglie l’IA. Detto in altri termini, l’unità informativa è l’uso rivelato da parte degli utenti, combinato con la mappa dei lavori e dei compiti nell’economia americana. Emerge così dai dati una nuova prospettiva sull’utilizzazione dell’IA leggibile in chiave di agency.
Chi usa l’IA?
Anzitutto, chi usa l’IA? Nella collaborazione con l’intelligenza artificiale non tutti i lavori sono uguali. L’immenso dataset delle interazioni con Claude rivela che solo il 4% delle occupazioni utilizza l’IA in almeno il 75% dei compiti che compongono ciascuna occupazione, mentre circa il 36% delle occupazioni utilizza l’IA in almeno il 25% dei propri task. Inoltre, la scelta di utilizzazione dipende fortemente dalle caratteristiche tecnologiche dell’intelligenza artificiale poiché queste ultime determinano la probabilità di offrire valore.
Infatti, le professioni che mostrano il grado più alto di interazione con l’IA sono quelle in cui i compiti principali sono verbali, concettuali e strutturati in linguaggio naturale, ovvero digitalizzati o già mediati da interfacce testuali. Il chi è quindi un insegnante, un analista o consulente, un operatore del marketing o di contenuti digitali, uno sviluppatore o data scientist.
Figura 1: Utilizzo dell’IA nelle diverse professioni. Distribuzione cumulativa che mostra la frazione di professioni (asse y) che utilizza l’IA in almeno una determinata frazione dei propri compiti (asse x). Fonte: Anthropic Claude Economic Index [8].
La Figura 1 descrive la distribuzione cumulativa delle professioni che usano l’intelligenza artificiale per lo svolgimento di almeno alcuni compiti. In alto a sinistra troviamo le professioni (un po’ più del 20%, in America) che non usano l’IA. Scendendo verso destra le professioni che, via via, fanno dell’IA un uso più intensivo, vale a dire che la utilizzano nell’espletamento di un numero elevato di compiti.
Che cosa ci dice questo grafico? Che l’intelligenza artificiale non sta ancora colonizzando in massa le professioni. Piuttosto, entra in punta di piedi, occupando spazi ben definiti all’interno dei mestieri – ad esempio nei compiti legati alla scrittura o all’analisi – senza rimpiazzare tutto il flusso lavorativo. Si estende, per così dire, a bassa intensità ma ad ampio spettro. Ancora, si osserva che oggi l’IA lavora per compiti, non per interi mestieri. La sostituzione completa dell’essere umano è un fenomeno marginale mentre la collaborazione selettiva è la norma.
Quanto si usa l’IA?
Il Claude Economic Index ci dice anche quanto si usi l’IA, cioè la distribuzione delle abilità (e quindi dei compiti) che dominano le conversazioni tra Claude e i suoi utenti.
La distribuzione delle abilità lavorative che emergono più frequentemente nelle conversazioni tra esseri umani e il modello Claude, descritta nella Figura 2, è un indicatore di quali skill gli utenti sollecitino nei compiti quotidiani.
La figura rivela una geografia precisa delle complementarità uomo-macchina. I picchi più alti si osservano in competenze legate al pensiero critico, alla programmazione o alla comprensione dei testi. Negli ambiti che alloggiano nella parte superiore della figura gli utenti attribuiscono alla conversazione con l’IA maggiore utilità e tendono ad usarla estensivamente.
Figura 2: Distribuzione delle competenze professionali nelle conversazioni con Claude. Fonte: Anthropic Claude Economic Index [8].
Dai dati emerge che alcune competenze sono sistematicamente marginali nelle conversazioni analizzate tra utenti umani e Claude. Esse si concentrano in due grandi famiglie. La prima include le competenze manuali e tecnico-operative che richiedono interazione fisica diretta con il mondo materiale, spesso in contesti ad alta variabilità. Queste attività sono scarsamente rappresentate perché l’IA generativa opera esclusivamente nel dominio simbolico e linguistico mentre queste competenze richiedono capacità sensoriali, manipolative e contestuali difficilmente codificabili e simulabili nel linguaggio naturale.
La seconda famiglia comprende le competenze interpersonali ad alta densità relazionale che richiedono abilità sociali e comunicative ancora inaccessibili per l’IA. Sono competenze negoziali, di percezione sociale, di influenza nelle relazioni sociali, basate su empatia, intenzionalità e lettura del contesto umano che si manifestano in ambienti informali che le interfaccia digitali non possono catturare.
L’assenza dai piani alti della figura non significa che queste competenze siano al sicuro per sempre, ma che, finché l’interfaccia uomo-macchina resterà linguistica e digitale, ci sarà una fascia significativa di attività umane che resterà non sostituibile, o perlomeno non automatizzabile con efficienza.
Come si usa l’IA?
Nel mondo dell’intelligenza artificiale conta anche come le persone scelgano di usarla. La Figura 3 propone una mappa dei pattern di comportamento degli utenti in relazione ai modelli linguistici generativi, distinguendo tra automazione e arricchimento funzionale.
Il contributo chiave della figura non è contabile, ma è l’introduzione di una tassonomia dei modi di usare l’IA, organizzata su due poli, augmentation (capacità incrementale) e automation (sostituzione del lavoro).
Figura 3. Distribuzione di comportamenti di automatizzazione (43%) in cui gli utenti delegano compiti all’IA e comportamenti di incremento funzionale (57%) in cui gli utenti collaborano attivamente con l’IA. Fonte: Anthropic Claude Economic Index [8].
Secondo i dati, il 57% delle interazioni analizzate è di tipo incrementale, mentre il 43% mostra pattern di automazione. Nella maggior parte dei casi gli utenti non si limitano a delegare all’IA, ma la coinvolgono come partner nel processo cognitivo. Tuttavia, la distribuzione varia significativamente tra occupazioni. Alcuni lavori favoriscono l’automazione (per esempio, data entry, produzione testi standardizzati), altri l’incremento funzionale (per esempio, insegnamento, strategia, design). La variabilità riflette la natura del task, ma anche la cultura e il modo di operare dell’ambiente professionale.
Per chiarezza interpretativa, la Tabella 1 descrive analiticamente i comportamenti di automatizzazione e di incremento funzionale introdotti dalla Figura 3.
Comportamenti di automatizzazione | Comportamenti incrementali |
Directive: il compito viene dato all’IA senza ulteriore intervento umano | Task Iteration: l’utente dialoga, affina, riscrive |
Feedback Loop: l’IA risponde, l’utente approva o chiede piccole revisioni | Learning: l’utente usa l’IA per apprendere o testare concetti |
Validation: l’utente confronta l’output dell’IA con le proprie intuizioni |
Tabella 1. Tassonomia dei comportamenti dell’utente. Fonte: Anthropic Claude Economic Index [8].
La misura restituita dalla Figura 3 è essenziale affinché l’agency possa superare la prima sfida, per tre motivi. Anzitutto la rende visibile: chi esplora, itera, verifica, esercita controllo e agency; chi delega, abdica, copia-incolla, limita l’interazione e permette alla macchina di sostituire il lavoro umano.
La seconda ragione è che rende negoziabile l’automazione nel rapporto con la macchina. Mostra che l’automazione non è un destino imposto dalla macchina o l’ineluttabile conseguenza delle sue caratteristiche tecnologiche, ma una scelta di design o di uso. Ciascun utente sceglie se automatizzare o utilizzare la tecnologia a fini incrementali. Infine, aiuta a disegnare policy e formazione perché contribuisce a comprendere quali pattern nella relazione tra utente e IA prevalgano in un dato settore.
L’IA come tecnologia aperta
La seconda sfida per l’agency è concettuale. I modelli economici sull’impatto dell’IA sul lavoro assumono che la tecnologia, una volta disponibile, abbia un potere intrinseco di sostituzione del lavoro umano, in particolare laddove essa sia più efficiente o qualitativamente preferibile rispetto all’uomo.
Ancora una volta nei modelli economici il come dipende da elementi oggettivi delle caratteristiche della tecnologia che hanno impatto sulla produttività e sulla qualità del prodotto e non dalle scelte dell’utente. L’esclusione dell’agency dalla valutazione del come regge però se vale il presupposto che le tecnologie siano chiuse, cioè progettate per uno scopo univoco e indipendente dall’uso umano.
Giudizi ‘pre-specificati’ e ‘complemento’
Ma è davvero così? Con l’introduzione dell’IA il presupposto è discusso intensamente nella scienza economica, in risposta al timore che le peculiari caratteristiche tecnologiche dell’intelligenza artificiale accelerino inesorabilmente la sostituzione del lavoro. In un recente articolo, Agrawal, Gans e Goldfarb [9] costruiscono un modello formale di interazione con una tecnologia cognitivamente abilitante in cui individui motivati dal desiderio di migliorare la realizzazione dei propri task fanno uso della tecnologia per raggiungere il proprio obiettivo (osservate che questa è affermazione equivale a dire che aumenta la produttività).
Il modello è interessante per diverse ragioni. Anzitutto, quando si adotta una tecnologia cognitiva abilitante, gli agenti riducono il livello di impegno nello svolgimento dei task poiché la tecnologia aumenta la probabilità di raggiungere buoni risultati. Quindi, un effetto di sostituzione direttamente legato alle caratteristiche abilitanti della tecnologia è parte dei risultati del modello perché la sostituzione consente di raggiungere un maggior beneficio netto anche a fronte di un minore impegno. In altri termini, il miglioramento della produttività è legato in qualche modo alla sostituzione.
D’altra parte, l’introduzione di una tecnologia cognitiva abilitante non può portare solo a sostituzione (automazione, dicono gli autori). La ragione è che l’automazione richiede un pre-specified judgement, cioè una decisione o una valutazione già determinata ex ante nel processo operativo. Per esempio, se un algoritmo deve applicare una formula già nota a un dataset (pensate al calcolo dell’IVA), non serve alcun giudizio da parte dell’utente perché l’output perseguito è meccanico. Gli autori dicono che il giudizio è pre-specificato.
Ma una tecnologia cognitiva abilitante non si applica solo a circostanze in cui il giudizio sia pre-specificato. L’insegnante che prepari la lezione sul Canto di Ulisse non può utilizzare dei giudizi pre-specificati ma userà comunque un giudizio che, nel suo caso, è un complemento della tecnologia cognitiva. Di conseguenza, quando l’IA si trova di fronte a giudizi dai confini imprecisi che servono da complemento per realizzare il suo prodotto, allora l’automazione completa diventa meno probabile. Inoltre, man mano che la tecnologia cognitiva diventa più potente, la probabilità di automazione diminuisce ulteriormente perché cresce il valore del giudizio complementare offerto dal lavoro umano poiché i compiti diventano più sofisticati e il margine di errore meno tollerabile. Nel Box 3 riporto un altro esempio del ruolo della complementarietà del giudizio.
Il ruolo dell’agency nel giudizio complemento
Sebbene Agrawal, Gans e Goldfarb attribuiscano alla relazione tra giudizio sulle circostanze e strumento cognitivo il ruolo di discrimine tra automazione e capacità incrementale, il ruolo dell’agency è apparente. Infatti, è proprio l’agency che sostiene la complessità e la complementarietà del giudizio umano poiché consente di interpretare il contesto, porre domande nuove, valutare alternative e assumersi la responsabilità della decisione. Senza agency il giudizio tornerebbe ad essere pre-specificato e la tecnologia ad essere meramente sostitutiva.
Conclusioni
A dispetto della vasta letteratura distopica che sottolinea i rischi cui il futuro del lavoro sarebbe sottoposto dall’espansione dell’IA, il Claude Economic Index offre un momento di sobrietà ben fondato sui dati e su una metodologia di analisi – quella dell’utilizzazione rivelata dell’IA – innovativa e informativa. Il peculiare punto di osservazione dell’indice permette anche di mettere alla prova il ruolo dell’agency come discriminante tra sostituzione e incremento del lavoro umano.
Il risultato che i dati dell’indice permettono di raggiungere, peraltro, non è esclusivamente dipendente dai numeri che esso mette in mostra. L’ipotesi che l’agency sia un’informazione dirimente per determinare se l’IA agisca come forza sostitutiva o capacità incrementale trova infatti conferma (indiretta) in altre evidenze empiriche.
Brevemente, eccone una, interessante perché lega l’agency alla percezione che gli utenti dell’IA hanno di quanto la tecnologia potrebbe migliorare la propria produttività. Peng, Kalliamvakou, Cihon, e Demirer [10] hanno condotto un esperimento controllato con GitHub Copilot. L’esperimento consiste nel chiedere ad alcuni sviluppatori di implementare un server http in JavaScript il più velocemente possibile. Un gruppo (il gruppo di trattamento) ha avuto la possibilità, come il vincitore di una Mistery Box di Masterchef, di ricevere istruzioni su come farlo in Copilot. All’altro gruppo, il gruppo di controllo, è stata data solo la possibilità di acquisire informazioni attraverso una demo. Il primo gruppo ha una maggiore percezione del miglioramento che può realizzare nel completare il compito, maggiore persino del miglioramento che di fatto realizza.
L’effetto cognitivo indotto dall’utilizzazione dell’IA va oltre ciò che gli utenti riescono a registrare consapevolmente [11]. Sebbene non abbiamo informazioni sul livello di agency di ciascuno dei componenti dei due gruppi, la sovrastima fatta dal gruppo sottoposto al trattamento rivela che la maggiore produttività non dipenda solo dal prompt iniziale, bensì da un processo d’interazione più profondo che chiama a raccolta le abilità cognitive delle persone.
Anche se non adeguatamente esplorata nelle analisi sul futuro del lavoro, né empiricamente osservabile, l’agency è un moltiplicatore di efficacia capace di sfruttare al meglio i benefici dell’IA. Ed oggi, anche la diga migliore all’avanzamento della sostituzione.
Bibliografia
[1] Daron Acemoglu, Pascual Restrepo (2020). “Robots and Jobs: Evidence from US Labor Markets.” Journal of Political Economy, Volume 128, Pages 2188-2244.
[2] Timothy Bresnahan, Manuel Trajtenberg (1995). “General Purpose Technologies ‘Engines of growth’?”, Journal of Econometrics, 65, Pages 83-108.
[3] Timothy Bresnahan (2010). “Chapter 18 – General Purpose Technologies”, in Bronwyn H. Hall, Nathan Rosenberg (a cura di), Handbook of the Economics of Innovation, North-Holland, Volume 2, Pages 761-791.
[4] David H. Autor, Frank Levy, Richard J. Murnane, (2003). The Skill Content of Recent Technological Change: An Empirical Exploration, The Quarterly Journal of Economics, Volume 118, Pages 1279–1333, https://doi.org/10.1162/003355303322552801
[5] Daron Acemoglu, David Autor (2011). “Skills, Tasks and Technologies. Implications for Employment and Earnings”. Handbook of Labor Economics, Volume 4, Part B, Pages 1043-1171, Elsevier.
[6] Daron Acemoglu, Pascual Restrepo, (2019). “Artificial Intelligence, Automation and Work.” In Ajay Agrawal, Joshua Gans, Avi Goldfarb (a cura di), The Economics of Artificial Intelligence: An Agenda. University of Chicago Press, Pages 197-236.
[7] Erik Brynjolfsson, Danielle Li, Lindsey R. Raymond (2023). “Generative AI at Work.” NBER Working Paper No. 31161.
[8] Kunal Handa, Alex Tamkin, Miles McCain, Saffron Huang, Esin Durmus, Sarah Heck, Jared Mueller, Jerry Hong, Stuart Ritchie, Tim Belonax, Kevin K. Troy, Dario Amodei, Jared Kaplan, Jack Clark, Deep Ganguli (2025). “Which Economic Tasks are Performed with AI? Evidence from Millions of Claude Conversations”. ArXiv 2503. 04761v1.
[9] Ajay K. Agrawal, Joshua S. Gans, Avi Goldfarb (2025). “The Economics of Bicycles for the Mind.” NBER Working Paper No. 34034.
[10] Sida Peng, Eirini Kalliamvakou, Peter Cihon, Mert Demirer (2023). “The Impact of AI on Developer Productivity: Evidence from GitHub Copilot.” arXiv 2302.06590v1.
[11] McKinsey & Company (2025). Superagency in the workplace: Empowering people to unlock AI’s full potential at work.
***** l’articolo pubblicato è ritenuto affidabile e di qualità*****
Visita il sito e gli articoli pubblicati cliccando sul seguente link