Note:
(*) N.d.R.: Il presente contributo è stato sottoposto, in forma anonima, al vaglio del Comitato di valutazione.
[1] Reg. UE 2024/1689 del Parlamento europeo e del Consiglio del 13 giugno 2024 che stabilisce regole armonizzate sull’intelligenza artificiale (regolamento sull’intelligenza artificiale) e modifica i Reg. CE 300/2008 , Reg. UE 167/2013 , Reg. UE 168/2013 , Reg. UE 2018/858 , Reg. UE 2018/1139 e Reg. UE 2019/2144 e le Dir. 2014/90/UE , Dir. 2016/797/UE e Dir. 2020/1828/UE , in G.U.U.E., L del 12 luglio 2024 .
[2] Per un inquadramento della normativa di recente approvazione, ex multis, C.N. Pehlivan – N. Forgó – P. Valck (a cura di), The EU Artificial Intelligence (AI) Act: A Commentary, Paesi Bassi, 2024; AA.VV., Navigare l’European AI Act, Milano, 2024; G. Taddei Elmi – A. Contaldo (a cura di), Intelligenza artificiale. AI Act – Regolamento (UE) 1689/2024 . Il nuovo scenario giuridico europeo, Pisa, 2024; G. Cassano – E.M. Tripodi (a cura di), Il Regolamento Europeo sull’Intelligenza Artificiale. Commento al Reg. UE n. 1689/2024 , Santarcangelo di Romagna, 2024; G. Finocchiaro – F. Donati – F. Paolucci – O. Pollicino, La disciplina dell’intelligenza artificiale, Milano, 2025; S. Calzolaio – A. Iannuzzi – E. Longo – M. Orofino – F. Pizzetti, La regolazione europea dell’intelligenza artificiale nella società digitale, Torino, 2025. Per un impatto della legge nel contesto lavorativo, tra gli altri, cfr. F. V. Ponte, Regole armonizzate sull’intelligenza artificiale: considerazioni lavoristiche, in questa Rivista, 2024, 12, 1093; A. Mantelero – M. Peruzzi, L’AI Act e la gestione del rischio nel sistema integrato delle fonti, in Riv. giur. lav., 2024, 4, I, 517.; S. Ciucciovino, Risorse umane e intelligenza artificiale alla luce del regolamento (Ue) 2024/1689 , tra norme legali, etica e codici di condotta, in Dir. rel. ind., 2024, 3, 573.; M. Peruzzi, Intelligenza artificiale e lavoro: l’impatto dell’AI Act nella ricostruzione del sistema regolativo Ue di tutela, in M. Biasi (a cura di), Diritto del lavoro e intelligenza artificiale, Milano, 2024, 115; M.T. Carinci – A. Ingrao, L’impatto dell’AI Act sul diritto del lavoro, in Giorn. dir. lav. rel. ind., 2024, 184, 4, 451; R.D. Costa, Lavoro e gestione del rischio all’epoca dell’intelligenza artificiale. Note a margine dell’AI Act, in T.A. Santucci Rosario (a cura di), Diritto del lavoro e intelligenza artificiale tra rischi e benefici, Torino, 2025, 89.
[3] Commissione europea, AI Act (risorsa online).
[4] P. Van Eecke – B. Regenhardt, Article 1. Subject Matter, in C.N. Pehlivan – N. Forgó – P. Valck (a cura di), The EU Artificial Intelligence (AI) Act: A Commentary, cit., 10.
[5] G. Taddei Elmi – A. Contaldo (a cura di), Intelligenza artificiale. AI Act – Regolamento (UE) 1689/2024 . Il nuovo scenario giuridico europeo, cit., 4.
[6] “Un sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall’input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali” (art. 3, par. 1, n. 1). Per un’interpretazione autentica della definizione, successivamente a OECD, Recommendation of the Council on Artificial Intelligence, 2019, OECD/LEGAL/0449 e a OECD, Explanatory memorandum on the updated OECD definition of an AI system, OECD Artificial Intelligence Papers, 2024, 8, rileva Commissione europea, Commission Guidelines on the definition of an artificial intelligence system established by Regulation (EU) 2024/1689 (AI Act), Bruxelles, 6 febbraio 2025, C(2025) 924 final. Per un’analisi della definizione, tra i pertinenti richiami di cui alla nt. 2, cfr. L. Feiler – B. König, Article 3. Definitions, in C.N. Pehlivan – N. Forgó – P. Valck (a cura di), The EU Artificial Intelligence (AI) Act: A Commentary, cit., 57; A. Iannuzzi, La definizione di Intelligenza Artificiale fra Regolamento europeo e norma tecnica internazionale. L’“uso umano degli esseri umani” e l’uso tecnico delle macchine, in S. Calzolaio – A. Iannuzzi – E. Longo – M. Orofino – F. Pizzetti, La regolazione europea dell’intelligenza artificiale nella società digitale, cit., 11.
[7] L’art. 3, par. 2, n. 2, dell’AI Act definisce il rischio come “la combinazione della probabilità del verificarsi di un danno e la gravità del danno stesso”. In una logica di confronto utile per il presente contributo, si richiama la definizione di “rischio” adottata dall’art. 2, comma 1, lett. s), D.lgs. n. 81/2008 : “probabilità di raggiungimento del livello potenziale di danno nelle condizioni di impiego o di esposizione ad un determinato fattore o agente oppure alla loro combinazione”.
[8] Considerando 26 dell’AI Act.
[9] Per un approfondimento, tra i pertinenti richiami di cui alla nt. 2, cfr. G.M. Marsico, L’approccio basato sul rischio, in G. Cassano – E.M. Tripodi (a cura di), Il Regolamento Europeo sull’Intelligenza Artificiale. Commento al Reg. UE n. 1689/2024 , cit., 377; P. Dunn, The Artificial Intelligence Act: a tile in the EU’s digital risk-based approach, in G. Finocchiaro – F. Donati – F. Paolucci – O. Pollicino, La disciplina dell’intelligenza artificiale, cit., 141.
[10] Considerando 27 dell’AI Act. In tale sede sono stati elaborati sette principi etici non vincolanti per l’IA: intervento e sorveglianza umani, robustezza tecnica e sicurezza, vita privata e governance dei dati, trasparenza, diversità, non discriminazione ed equità, benessere sociale e ambientale e responsabilità. Per un approfondimento sulla dimensione normativa di tali principi, cfr. M. Orofino, Obiettivi, ambito di applicazione e principi fondamentali dell’AI Act, in S. Calzolaio – A. Iannuzzi – E. Longo – M. Orofino – F. Pizzetti, La regolazione europea dell’intelligenza artificiale nella società digitale, cit., 33.
[11] Cfr. art. 5 dell’AI Act. Per un approfondimento, oltre a Commissione europea, Commission Guidelines on prohibited artificial intelligence practices established by Regulation (EU) 2024/1689 (AI Act), Bruxelles, 4 febbraio 2025, C(2025) 884 final, tra i pertinenti richiami di cui alla nt. 2, cfr. E. J. Kindt – C. Jasserand, Article 5. Prohibited AI Practices, in C.N. Pehlivan – N. Forgó – P. Valck (a cura di), The EU Artificial Intelligence (AI) Act: A Commentary, cit., 105; F.P. Levantino – I. Neroni Rezende, Rischio inaccettabile: usi proibiti, in G. Finocchiaro – F. Donati – F. Paolucci – O. Pollicino, La disciplina dell’intelligenza artificiale, cit., 159; C. Pappalardo, Le applicazioni e le pratiche proibite di IA, in G. Cassano – E.M. Tripodi (a cura di), Il Regolamento Europeo sull’Intelligenza Artificiale. Commento al Reg. UE n. 1689/2024 , cit., 441; G. Taddei Elmi – A. Contaldo (a cura di), Intelligenza artificiale. AI Act – Regolamento (UE) 1689/2024 . Il nuovo scenario giuridico europeo, cit., 17; E. Longo, Le pratiche di IA vietate e i sistemi di IA ad alto rischio: metodi e strumenti per la società del “rischio digitale”, in S. Calzolaio – A. Iannuzzi – E. Longo – M. Orofino – F. Pizzetti, La regolazione europea dell’intelligenza artificiale nella società digitale, cit., 63.
[12] Per i criteri di classificazione dei sistemi ad alto rischio, cfr. art. 6 dell’AI Act. Per un approfondimento, tra i pertinenti richiami di cui alla nt. 2, cfr. G. Couneson, Article 6. Classification Rules for High-Risk AI Systems, in C.N. Pehlivan – N. Forgó – P. Valck (a cura di), The EU Artificial Intelligence (AI) Act: A Commentary, cit., 193; A. Del Forno, I sistemi di IA ad alto rischio, in G. Cassano – E.M. Tripodi (a cura di), Il Regolamento Europeo sull’Intelligenza Artificiale. Commento al Reg. UE n. 1689/2024 , cit., 489; G. Taddei Elmi – A. Contaldo (a cura di), Intelligenza artificiale. AI Act – Regolamento (UE) 1689/2024 . Il nuovo scenario giuridico europeo, cit., 29; T. Rodríguez de las Heras Ballellin, High-risk AI systems in the European AI Act, in G. Finocchiaro – F. Donati – F. Paolucci – O. Pollicino, La disciplina dell’intelligenza artificiale, cit., 227.
[13] Cfr. art. 50 dell’AI Act. Per un approfondimento, tra i pertinenti richiami di cui alla nt. 2, cfr. T. Gils, Article 50. Transparency Obligations for Providers and Deployers of Certain AI Systems, in C.N. Pehlivan – N. Forgó – P. Valck (a cura di), The EU Artificial Intelligence (AI) Act: A Commentary, cit., 776; L. Anselmi, Le IA che si rapportano con umani, in G. Cassano – E.M. Tripodi (a cura di), Il Regolamento Europeo sull’Intelligenza Artificiale. Commento al Reg. UE n. 1689/2024 , cit., 629; E. Longo – F. Paolucci, The Article 50 of the AI Act and the transparency obligations: the model and its limitations, in G. Finocchiaro – F. Donati – F. Paolucci – O. Pollicino, La disciplina dell’intelligenza artificiale, cit., 275; G. Taddei Elmi – A. Contaldo (a cura di), Intelligenza artificiale. AI Act – Regolamento (UE) 1689/2024 . Il nuovo scenario giuridico europeo, cit., 145.
[14] Art. 3, par. 1, n. 3, dell’AI Act. Per un’analisi della definizione, cfr. L. Feiler – B. König, Article 3. Definitions, in C.N. Pehlivan – N. Forgó – P. Valck (a cura di), The EU Artificial Intelligence (AI) Act: A Commentary, cit., 60. È peraltro riconosciuto il possibile cumulo di più ruoli – e quindi dei connessi obblighi – ai sensi dell’AI Act: “Operators may fulfil more than one role concurrently in relation to an AI system. For example, if an operator develops its own AI system that it uses afterwards, it will be considered both the provider and the deployer of that system, even if that system is also used by other deployers to whom the system has been provided in return for payment or free of charge” (Commissione europea, Commission Guidelines on prohibited artificial intelligence practices established by Regulation (EU) 2024/1689 (AI Act), cit., 6).
[15] Art. 3, par. 1, n. 4, dell’AI Act. Resta escluso il caso in cui il sistema di IA sia utilizzato nel corso di un’attività personale non professionale. Per un’analisi della definizione, cfr. L. Feiler – B. König, Article 3. Definitions, in C.N. Pehlivan – N. Forgó – P. Valck (a cura di), The EU Artificial Intelligence (AI) Act: A Commentary, cit., 61. Per una prima valutazione degli impatti nel contesto lavorativo, cfr. L. Barbieri, Sistemi d’intelligenza artificiale ad alto rischio: obblighi del datore di lavoro utilizzatore, Diritto & Pratica del Lavoro, 2025, 15, 869.
[16] Tra cui, in particolare, importatori (ex art. 3, par. 1, n. 6), dell’AI Act: “una persona fisica o giuridica ubicata o stabilita nell’Unione che immette sul mercato un sistema di IA recante il nome o il marchio di una persona fisica o giuridica stabilita in un paese terzo”) e distributori (ex art. 3, par. 1, n. 7), dell’AI Act: “una persona fisica o giuridica nella catena di approvvigionamento, diversa dal fornitore o dall’importatore, che mette a disposizione un sistema di IA sul mercato dell’Unione”).
[17] C.N. Pehlivan, Article 113. Entry into Force and Application, in C.N. Pehlivan – N. Forgó – P. Valck (a cura di), The EU Artificial Intelligence (AI) Act: A Commentary, cit., 1463.
[18] Art. 1 (“Oggetto”), art. 2 (“Ambito di applicazione”) e art. 3 (“Definizioni”) dell’AI Act.
[19] Art. 5 dell’AI Act.
[20] M. Paolini e Silva – A. Tamò-Larrieux – O. Ammann, AI Literacy Under the AI Act: Tracing the Evolution of a Weakened Norm, in SSRN Electronic Journal, 2025, 2.
[21] Tale analisi farà affidamento anche sui primi atti di interpretazione autentica emanati in materia, e in particolare sul documento “AI Literacy – Questions & Answers”, pubblicato dalla Commissione europea il 7 maggio 2025 e da ultimo aggiornato in data 8 luglio 2025.
[22] Art. 14 dell’AI Act.
[23] Art. 11 dell’AI Act.
[24] Art. 86 dell’AI Act.
[25] T. Cabral, AI Literacy Under the AI Act: An Assessment of its Scope, in SSRN Electronic Journal, 2025, 1.
[26] E. Fernandes – W. Holmes – S. Zhgenti, Article 4. AI Literacy, in C.N. Pehlivan – N. Forgó – P. Valck (a cura di), The EU Artificial Intelligence (AI) Act: A Commentary, cit., 89. Sul punto è interessante richiamare anche la Convenzione quadro del Consiglio d’Europa sull’intelligenza artificiale e i diritti umani, la democrazia e lo Stato di diritto, adottata a Strasburgo il 17 maggio 2024, al cui art. 20 si parla di “Digital literacy and skills” (“Each Party shall encourage and promote adequate digital literacy and digital skills for all segments of the population, including specific expert skills for those responsible for the identification, assessment, prevention and mitigation of risks posed by artificial intelligence systems”).
[27] Commissione europea, Proposta di regolamento del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull’intelligenza artificiale (legge sull’intelligenza artificiale) e modifica alcuni atti legislativi dell’Unione, Bruxelles, 21.4.2021, COM(2021) 206 final.
[28] M. Paolini e Silva – A. Tamò-Larrieux – O. Ammann, AI Literacy Under the AI Act: Tracing the Evolution of a Weakened Norm, cit., 2, che rileva anche come, prima di tale momento, nella proposta di regolamento e in altri documenti istituzionali erano presenti termini correlati come “istruzione”, “formazione”, “competenze” e “conoscenze”, senza un’enfasi coesa sul concetto di alfabetizzazione.
[29] Ivi, 7.
[30] Taddei Elmi – A. Contaldo (a cura di), Intelligenza artificiale. AI Act – Regolamento (UE) 1689/2024 . Il nuovo scenario giuridico europeo, cit., 415.
[31] E. Fernandes – W. Holmes – S. Zhgenti, Article 4. AI Literacy, in C.N. Pehlivan – N. Forgó – P. Valck (a cura di), The EU Artificial Intelligence (AI) Act: A Commentary, cit., 93, che nota anche che l’articolo non prende in considerazione la necessità di altri soggetti all’interno della società di essere supportati nel processo di alfabetizzazione: ciò sarebbe dovuto anche all’origine dell’AI Act quale normativa sulla sicurezza dei prodotti, e con ciò le norme sull’AI literacy sono ancora viste come un mero mezzo affinché gli operatori della catena di valore dell’IA rispettino le regole della legge (94-95).
[32] Per M. Paolini e Silva – A. Tamò-Larrieux – O. Ammann, AI Literacy Under the AI Act: Tracing the Evolution of a Weakened Norm, cit., 3, il depotenziamento della norma, insieme al suo inserimento tardivo nell’iter di approvazione della legge, sembra abbia fatto perdere al legislatore europeo un’opportunità di affrontare le preoccupazioni sociali connesse all’avvento dell’IA, lasciando un vuoto nell’educazione sull’IA sia per la società che per il mercato.
[33] T. Cabral, AI Literacy Under the AI Act: An Assessment of its Scope, cit., 2.
[34] Il considerando 91 dell’AI Act chiarisce anche che “i deployer dovrebbero garantire che le persone alle quali è affidata l’attuazione delle istruzioni per l’uso e della sorveglianza umana di cui al […] regolamento dispongano delle competenze necessarie, in particolare un livello adeguato di alfabetizzazione, formazione e autorità in materia di IA per svolgere adeguatamente tali compiti”.
[35] E. Fernandes – W. Holmes – S. Zhgenti, Article 4. AI Literacy, in C.N. Pehlivan – N. Forgó – P. Valck (a cura di), The EU Artificial Intelligence (AI) Act: A Commentary, cit., 95.
[36] Commissione europea, AI Literacy – Questions & Answers.
[37] E. Fernandes – W. Holmes – S. Zhgenti, Article 4. AI Literacy, in C.N. Pehlivan – N. Forgó – P. Valck (a cura di), The EU Artificial Intelligence (AI) Act: A Commentary, cit., 95.
[38] Ivi, 96.
[39] Ivi, 97.
[40] Commissione europea, AI Literacy – Questions & Answers, ove viene altresì aggiunto che “[l]e considerazioni a, b, c e d includono aspetti di natura legale ed etica. Si incoraggiapertanto il collegamento con la normativa UE sull’IA (i.e. la comprensione dell’AI Act) e con i principi di etica e governance” (TdA).
[41] Rispetto al quale la Commissione richiama la mancanza di un approccio unico valido per tutti in materia di AI literacy,dovendosi guardare alle circostanze dal contesto concreto (Commissione europea, AI Literacy – Questions & Answers).
[42] Sul punto è precisato che “l’articolo 4 dell’AI Act incoraggia fornitori e deployer a tenere conto delle conoscenze, dell’esperienza, dell’istruzione e della formazione del personale e delle altre persone al fine di garantire un livello sufficiente di alfabetizzazione in materia di IA. Data la differenza tra i sistemi di IA e il fatto che il livello di conoscenza ed esperienza, nonché il tipo di istruzione e formazione ricevute, possono variare, può essere opportuno prevedere diversi livelli di formazione o approcci di apprendimento” (TdA) (Commissione europea, AI Literacy – Questions & Answers).
[43] A riguardo viene chiarito che non è necessario alcun certificato a tal fine, potendo le organizzazioni tenere un registro interno dei corsi e delle attività svolte (Commissione europea, AI Literacy – Questions & Answers).
[44] Sul tema la dottrina è assai vasta. Si richiamano, ex multis, P. De Vita, Formazione dei lavoratori e dei responsabili/addetti, in M. Tiraboschi (a cura di), Il Testo Unico della salute e sicurezza nei luoghi di lavoro, Milano, 2008, 495; S. Palladini, La formazione dei lavoratori e dei loro rappresentanti (art. 37 , D.Lgs. 9.4.2008, n. 81 ), in E. Gragnoli – F. Carinci (a cura di), Codice Commentato della Sicurezza sul lavoro, Milano, 2010, 347; R. Del Punta, Commento all’articolo 37, in L. Montuschi (diretto da), La nuova sicurezza sul lavoro, vol. I, Principi comuni (a cura di C. Zoli), Bologna, 2011, 439; P. Pascucci, Appunti su alcune questioni in tema di formazione per la sicurezza sul lavoro, in Lavoro, istituzioni, cambiamento sociale. Studi in onore di Tiziano Treu, Napoli, 2011, 1115; T. Giornale, Informazione e formazione: strumenti di prevenzione soggettiva, in G. Natullo (a cura di), Salute e sicurezza sul lavoro, Torino, 2015; R. Guariniello, Il T.U. Sicurezza sul lavoro commentato con la giurisprudenza, Milano, 2024, 755.
[45] C. Alessi, La formazione in materia di salute e sicurezza sul lavoro di fronte alle sfide della transizione ecologica e digitale, in L. Foffani – G. Pellacani – R. Orlandi – L. Lodi (a cura di), La dimensione dinamica della salute e della sicurezza sul lavoro nel contesto locale, Torino, 2024, 26.
[46] P. Pascucci, Prevenzione, organizzazione e formazione. A proposito di un recente libro sulla sicurezza sul lavoro, in Dir. sic. lav., 2016, 1, 80, per il quale “se l’obbligo di valutazione dei rischi costituisce la pietra angolare su cui si regge il sistema di prevenzione aziendale, quello di formazione ne rappresenta idealmente il logico sviluppo identificabile come il muro portante dal quale dipende la stabilità dell’intero edificio”.
[47] P. Tullini, La formazione per la sicurezza sul lavoro, in Dir. sic. lav., 2017, 1, 76, per cui tale definizione “configura un diritto/dovere alla formazione da intendersi come l’architrave che sostiene, in linea orizzontale, l’intero edificio della prevenzione dei rischi nell’ambiente di lavoro”.
[48] “Complesso delle attività dirette a fornire conoscenze utili alla identificazione, alla riduzione e alla gestione dei rischi in ambiente di lavoro” (art. 2, comma 1, lett. bb, del T.U.).
[49] “Complesso delle attività dirette a fare apprendere ai lavoratori l’uso corretto di attrezzature, macchine, impianti, sostanze, dispositivi, anche di protezione individuale, e le procedure di lavoro” (art. 2, comma 1, lett. cc, del T.U.).
[50] C. Alessi, La formazione in materia di salute e sicurezza sul lavoro di fronte alle sfide della transizione ecologica e digitale, in L. Foffani – G. Pellacani – R. Orlandi – L. Lodi (a cura di), La dimensione dinamica della salute e della sicurezza sul lavoro nel contesto locale, cit., 28. Sul punto è possibile citare anche, da un lato, P. Tullini, La formazione per la sicurezza sul lavoro, in Dir. sic. lav., cit., che mette in luce la necessità di tenere distinti i concetti e, dall’altro, L. Angelini, Le sfide della formazione per la sicurezza sul lavoro, in Dir. sic. lav., 2022, 1, che evidenza la convergenza strategica e funzionale tra i vari concetti.
[51] Si tratta di una delle novità introdotte dal D.L. n. 146/2021 (conv. in L. n. 215/2021 ). Per un approfondimento, cfr. C. Alessi, La formazione in materia di sicurezza dopo il d.l. 21 ottobre 2021, n. 146 , in Dir. sic. lav., 2022, 62.
[52] G. Leone, Le declinazioni della formazione nella sicurezza organizzata, in Dir. sic. lav., 2016, 2, 21.
[53] C. Alessi, La formazione in materia di sicurezza dopo il d.l. 21 ottobre 2021, n. 146 , in Dir. sic. lav., cit., 72.
[54] P. Tullini, La formazione per la sicurezza sul lavoro, in Dir. sic. lav., cit., 77.
[55] C. Alessi, La formazione in materia di salute e sicurezza sul lavoro di fronte alle sfide della transizione ecologica e digitale, in L. Foffani – G. Pellacani – R. Orlandi – L. Lodi (a cura di), La dimensione dinamica della salute e della sicurezza sul lavoro nel contesto locale, cit., 30.
[56] Ad esempio, si prevede che le attività di formazione dei preposti “devono essere svolte interamente con modalità in presenza e essere ripetute con cadenza almeno biennale” (comma 7-ter) e che “[l]a formazione dei lavoratori e quella dei loro rappresentanti deve avvenire […] durante l’orario di lavoro” (comma 12).
[57] Il testo del provvedimento è stato pubblicato in data 19 maggio 2025 sul sito del Ministero del lavoro e delle politiche sociali (atto repertorio n. 75 del 19 maggio 2025).
[58] Vale a dire l’Accordo del 21 dicembre 2011 sui corsi di formazione per lo svolgimento diretto, da parte del datore di lavoro, dei compiti di prevenzione e protezione dai rischi, ai sensi dell’art. 34 , commi 2 e 3, D.Lgs. 9 aprile 2008, n. 81 (Rep. Atti n. 223/CSR) (G.U., n. 8 dell’11 gennaio 2012), l’Accordo del 21 dicembre 2011 per la formazione dei lavoratori, ai sensi dell’art. 37 , comma 2, D.Lgs. 9 aprile 2008, n. 81 (Rep. Atti n. 221/CSR) (G.U., n. 8 dell’11 gennaio 2012), l’Accordo del 22 febbraio 2012 concernente l’individuazione delle attrezzature di lavoro per le quali è richiesta una specifica abilitazione degli operatori, nonché le modalità per il riconoscimento di tale abilitazione, i soggetti formatori, la durata, gli indirizzi ed i requisiti minimi di validità della formazione, in attuazione dell’art. 73 , comma 5, D.Lgs. 9 aprile 2008, n. 81 e successive modifiche e integrazioni (Rep. Atti n. 53/CSR) (G.U. n. 60 del 12 marzo 2012), l’Accordo tra il Governo, le Regioni e le Province autonome di Trento e di Bolzano, sul documento proposto dal Ministero del lavoro e delle politiche sociali recante “Adeguamento e linee applicative degli accordi ex articolo 34 , comma 2 e 37, comma 2 del decreto legislativo 9 aprile 2008, n. 81 e successive modificazioni e integrazioni” (Rep. Atti n. 153/CSR del 25 luglio 2012) (G.U., n. 192 del 18 agosto 2012), l’Accordo del 7 luglio 2016 finalizzato alla individuazione della durata e dei contenuti minimi dei percorsi formativi per i responsabili e gli addetti dei servizi di prevenzione e protezione, ai sensi dell’art. 32 , D.Lgs. 9 aprile 2008, n. 81 e successive modificazioni (Rep. Atti n. 128/CSR) (G.U., n. 193 del 19 agosto 2016).
[59] Reg. UE 2016/679 del Parlamento europeo e del Consiglio del 27 aprile 2016 relativo alla protezione delle persone fisiche con riguardo al trattamento dei dati personali, nonché alla libera circolazione di tali dati e che abroga la Dir. 95/46/CE (regolamento generale sulla protezione dei dati), in G.U.U.E., L 119/1 del 4 maggio 2016.
[60] Per un inquadramento della normativa, ex multis, F. Pizzetti, Privacy e il diritto europeo alla protezione dei dati personali. Dalla Direttiva 95/46 al nuovo Regolamento europeo, Torino, 2016; F. Pizzetti, Privacy e il diritto europeo alla protezione dei dati personali. Il Regolamento europeo 2016/679 , vol. 1 e 2, Torino, 2016; L. Bolognini – E. Pelino – C. Bistolfi, Il regolamento privacy europeo. Commentario alla nuova disciplina sulla protezione dei dati personali, Milano, 2016; A. Ciccia Messina – N. Bernardi, Privacy e regolamento europeo, Milano, 2016; G. Finocchiaro (a cura di), Il nuovo Regolamento europeo sulla privacy e sulla protezione dei dati personali, Bologna, 2017; F. Costantini, Il Regolamento (UE) 679/2016 sulla protezione dei dati personali, in questa Rivista, 2018, 6, 545; R. Panetta (a cura di), Circolazione e protezione dei dati personali, tra libertà e regole del mercato, Milano, 2019; R. Sciaudone – E. Caravà (a cura di), Il codice della privacy. Commento al D. Lgs. 30 giugno 2003, n. 196 e al D. Lgs 10 agosto 2018, n. 101 alla luce del Regolamento (UE) 2016/679 (GDPR), Pisa, 2019; E. Tosi (a cura di). Privacy digitale. Riservatezza e protezione dei dati personali tra GDPR e nuovo Codice Privacy, Milano, 2019; C. Kuner – L. Bygrave – C. Docksey – L. Drechsler, The EU General Data Protection Regulation. A Commentary, Oxford, 2020; G. Finocchiaro – R. D’orazio – O. Pollicino – G. Resta (a cura di), Codice della privacy e data protection, Milano, 2021; G.M. Riccio – G. Scorza – E. Belisario (a cura di), GDPR e normativa privacy commentario, Milano, 2022; L. Bolognini – E. Pelino (a cura di), Codice della disciplina Privacy, Milano, 2024.
[61] Art. 4 , par. 1, n. 7, del GDPR .
[62] Art. 4 , par. 1, n. 8, del GDPR .
[63] L. Ferola, Articolo 29 – Trattamento sotto l’autorità del titolare del trattamento o del responsabile del trattamento, in G. M. Riccio – G. Scorza – E. Belisario (a cura di), GDPR e normativa privacy commentario, cit., 351.
[64] Ivi, 350.
[65] Ivi, 352.
[66] “Il titolare del trattamento e il responsabile del trattamento fanno sì che chiunque agisca sotto la loro autorità e abbia accesso a dati personali non tratti tali dati se non è istruito in tal senso dal titolare del trattamento, salvo che lo richieda il diritto dell’Unione o degli Stati membri”.
[67] Per un approfondimento sulla figura del DPO, oltre ai pertinenti richiami di cui alla nt. 60, v. R. Panetta – T. Mauro – F. Sartore, Il Data Protection Officer tra regole e prassi, Milano, 2023.
[68] Trattasi dei principi di liceità, correttezza e trasparenza, limitazione della finalità, minimizzazione dei dati, esattezza, limitazione della conservazione, integrità e riservatezza. Per un’analisi di dettaglio, ex multis, v. nt. 60, tra cui G. Franco – E. Pelino – F. Sartore, Commento all’articolo 5 del Regolamento (UE) 2016/679 , in L. Bolognini – E. Pelino (a cura di), Codice della disciplina Privacy, cit., 81.
[69] Art. 5 , par. 2, GDPR . Per un approfondimento, v. nt. 68.
[70] WP29, Parere 3/2010 sul principio di responsabilità, adottato il 13 luglio 2010, 12.
[71] E anche in relazione alla formazione in materia di salute e sicurezza sul lavoro è possibile ragionare in termini di formazione complementare: sul punto, cfr. C. Alessi, La formazione in materia di salute e sicurezza sul lavoro di fronte alle sfide della transizione ecologica e digitale, in L. Foffani – G. Pellacani – R. Orlandi – L. Lodi (a cura di), La dimensione dinamica della salute e della sicurezza sul lavoro nel contesto locale, cit., 37, secondo cui “[t]ra i contenuti necessari della formazione in materia di sicurezza […] vanno inserite certamente le misure di prevenzione dei rischi derivanti dall’utilizzo, nello svolgimento dell’attività lavorativa, dell’intelligenza artificiale”.
[72] Art. 66, par. 1, lett. f), dell’AI Act.
[73] Considerando 20 dell’AI Act, che trova applicazione nel successivo art. 95, par. 2, lett. c), dell’AI Act.
[74] Si tratta del “Living Repository of AI Literacy Practices” (ultimo aggiornamento 16 aprile 2025) (consultabile online).
[75] Sebbene le norme dell’AI Act in materia di supervisione ed esecuzione si applicheranno a decorrere dal 2 agosto 2026. Sul punto, la Commissione europea ha chiarito quanto segue: “La supervisione e l’applicazione dell’articolo 4 dell’AI Act non sono di competenza dell’Ufficio per l’IA, ma rientrano nelle attribuzioni delle autorità nazionali di vigilanza del mercato che dovranno essere designate entro il 2 agosto 2025. Le autorità nazionali di vigilanza del mercato inizieranno a supervisionare e applicare le norme a partire dal 2 agosto 2026” (TdA) (Commissione europea, AI Literacy – Questions & Answers).
(*) N.d.R.: Il presente contributo è stato sottoposto, in forma anonima, al vaglio del Comitato di valutazione.
[1] Reg. UE 2024/1689 del Parlamento europeo e del Consiglio del 13 giugno 2024 che stabilisce regole armonizzate sull’intelligenza artificiale (regolamento sull’intelligenza artificiale) e modifica i Reg. CE 300/2008 , Reg. UE 167/2013 , Reg. UE 168/2013 , Reg. UE 2018/858 , Reg. UE 2018/1139 e Reg. UE 2019/2144 e le Dir. 2014/90/UE , Dir. 2016/797/UE e Dir. 2020/1828/UE , in G.U.U.E., L del 12 luglio 2024 .
[2] Per un inquadramento della normativa di recente approvazione, ex multis, C.N. Pehlivan – N. Forgó – P. Valck (a cura di), The EU Artificial Intelligence (AI) Act: A Commentary, Paesi Bassi, 2024; AA.VV., Navigare l’European AI Act, Milano, 2024; G. Taddei Elmi – A. Contaldo (a cura di), Intelligenza artificiale. AI Act – Regolamento (UE) 1689/2024 . Il nuovo scenario giuridico europeo, Pisa, 2024; G. Cassano – E.M. Tripodi (a cura di), Il Regolamento Europeo sull’Intelligenza Artificiale. Commento al Reg. UE n. 1689/2024 , Santarcangelo di Romagna, 2024; G. Finocchiaro – F. Donati – F. Paolucci – O. Pollicino, La disciplina dell’intelligenza artificiale, Milano, 2025; S. Calzolaio – A. Iannuzzi – E. Longo – M. Orofino – F. Pizzetti, La regolazione europea dell’intelligenza artificiale nella società digitale, Torino, 2025. Per un impatto della legge nel contesto lavorativo, tra gli altri, cfr. F. V. Ponte, Regole armonizzate sull’intelligenza artificiale: considerazioni lavoristiche, in questa Rivista, 2024, 12, 1093; A. Mantelero – M. Peruzzi, L’AI Act e la gestione del rischio nel sistema integrato delle fonti, in Riv. giur. lav., 2024, 4, I, 517.; S. Ciucciovino, Risorse umane e intelligenza artificiale alla luce del regolamento (Ue) 2024/1689 , tra norme legali, etica e codici di condotta, in Dir. rel. ind., 2024, 3, 573.; M. Peruzzi, Intelligenza artificiale e lavoro: l’impatto dell’AI Act nella ricostruzione del sistema regolativo Ue di tutela, in M. Biasi (a cura di), Diritto del lavoro e intelligenza artificiale, Milano, 2024, 115; M.T. Carinci – A. Ingrao, L’impatto dell’AI Act sul diritto del lavoro, in Giorn. dir. lav. rel. ind., 2024, 184, 4, 451; R.D. Costa, Lavoro e gestione del rischio all’epoca dell’intelligenza artificiale. Note a margine dell’AI Act, in T.A. Santucci Rosario (a cura di), Diritto del lavoro e intelligenza artificiale tra rischi e benefici, Torino, 2025, 89.
[3] Commissione europea, AI Act (risorsa online).
[4] P. Van Eecke – B. Regenhardt, Article 1. Subject Matter, in C.N. Pehlivan – N. Forgó – P. Valck (a cura di), The EU Artificial Intelligence (AI) Act: A Commentary, cit., 10.
[5] G. Taddei Elmi – A. Contaldo (a cura di), Intelligenza artificiale. AI Act – Regolamento (UE) 1689/2024 . Il nuovo scenario giuridico europeo, cit., 4.
[6] “Un sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall’input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali” (art. 3, par. 1, n. 1). Per un’interpretazione autentica della definizione, successivamente a OECD, Recommendation of the Council on Artificial Intelligence, 2019, OECD/LEGAL/0449 e a OECD, Explanatory memorandum on the updated OECD definition of an AI system, OECD Artificial Intelligence Papers, 2024, 8, rileva Commissione europea, Commission Guidelines on the definition of an artificial intelligence system established by Regulation (EU) 2024/1689 (AI Act), Bruxelles, 6 febbraio 2025, C(2025) 924 final. Per un’analisi della definizione, tra i pertinenti richiami di cui alla nt. 2, cfr. L. Feiler – B. König, Article 3. Definitions, in C.N. Pehlivan – N. Forgó – P. Valck (a cura di), The EU Artificial Intelligence (AI) Act: A Commentary, cit., 57; A. Iannuzzi, La definizione di Intelligenza Artificiale fra Regolamento europeo e norma tecnica internazionale. L’“uso umano degli esseri umani” e l’uso tecnico delle macchine, in S. Calzolaio – A. Iannuzzi – E. Longo – M. Orofino – F. Pizzetti, La regolazione europea dell’intelligenza artificiale nella società digitale, cit., 11.
[7] L’art. 3, par. 2, n. 2, dell’AI Act definisce il rischio come “la combinazione della probabilità del verificarsi di un danno e la gravità del danno stesso”. In una logica di confronto utile per il presente contributo, si richiama la definizione di “rischio” adottata dall’art. 2, comma 1, lett. s), D.lgs. n. 81/2008 : “probabilità di raggiungimento del livello potenziale di danno nelle condizioni di impiego o di esposizione ad un determinato fattore o agente oppure alla loro combinazione”.
[8] Considerando 26 dell’AI Act.
[9] Per un approfondimento, tra i pertinenti richiami di cui alla nt. 2, cfr. G.M. Marsico, L’approccio basato sul rischio, in G. Cassano – E.M. Tripodi (a cura di), Il Regolamento Europeo sull’Intelligenza Artificiale. Commento al Reg. UE n. 1689/2024 , cit., 377; P. Dunn, The Artificial Intelligence Act: a tile in the EU’s digital risk-based approach, in G. Finocchiaro – F. Donati – F. Paolucci – O. Pollicino, La disciplina dell’intelligenza artificiale, cit., 141.
[10] Considerando 27 dell’AI Act. In tale sede sono stati elaborati sette principi etici non vincolanti per l’IA: intervento e sorveglianza umani, robustezza tecnica e sicurezza, vita privata e governance dei dati, trasparenza, diversità, non discriminazione ed equità, benessere sociale e ambientale e responsabilità. Per un approfondimento sulla dimensione normativa di tali principi, cfr. M. Orofino, Obiettivi, ambito di applicazione e principi fondamentali dell’AI Act, in S. Calzolaio – A. Iannuzzi – E. Longo – M. Orofino – F. Pizzetti, La regolazione europea dell’intelligenza artificiale nella società digitale, cit., 33.
[11] Cfr. art. 5 dell’AI Act. Per un approfondimento, oltre a Commissione europea, Commission Guidelines on prohibited artificial intelligence practices established by Regulation (EU) 2024/1689 (AI Act), Bruxelles, 4 febbraio 2025, C(2025) 884 final, tra i pertinenti richiami di cui alla nt. 2, cfr. E. J. Kindt – C. Jasserand, Article 5. Prohibited AI Practices, in C.N. Pehlivan – N. Forgó – P. Valck (a cura di), The EU Artificial Intelligence (AI) Act: A Commentary, cit., 105; F.P. Levantino – I. Neroni Rezende, Rischio inaccettabile: usi proibiti, in G. Finocchiaro – F. Donati – F. Paolucci – O. Pollicino, La disciplina dell’intelligenza artificiale, cit., 159; C. Pappalardo, Le applicazioni e le pratiche proibite di IA, in G. Cassano – E.M. Tripodi (a cura di), Il Regolamento Europeo sull’Intelligenza Artificiale. Commento al Reg. UE n. 1689/2024 , cit., 441; G. Taddei Elmi – A. Contaldo (a cura di), Intelligenza artificiale. AI Act – Regolamento (UE) 1689/2024 . Il nuovo scenario giuridico europeo, cit., 17; E. Longo, Le pratiche di IA vietate e i sistemi di IA ad alto rischio: metodi e strumenti per la società del “rischio digitale”, in S. Calzolaio – A. Iannuzzi – E. Longo – M. Orofino – F. Pizzetti, La regolazione europea dell’intelligenza artificiale nella società digitale, cit., 63.
[12] Per i criteri di classificazione dei sistemi ad alto rischio, cfr. art. 6 dell’AI Act. Per un approfondimento, tra i pertinenti richiami di cui alla nt. 2, cfr. G. Couneson, Article 6. Classification Rules for High-Risk AI Systems, in C.N. Pehlivan – N. Forgó – P. Valck (a cura di), The EU Artificial Intelligence (AI) Act: A Commentary, cit., 193; A. Del Forno, I sistemi di IA ad alto rischio, in G. Cassano – E.M. Tripodi (a cura di), Il Regolamento Europeo sull’Intelligenza Artificiale. Commento al Reg. UE n. 1689/2024 , cit., 489; G. Taddei Elmi – A. Contaldo (a cura di), Intelligenza artificiale. AI Act – Regolamento (UE) 1689/2024 . Il nuovo scenario giuridico europeo, cit., 29; T. Rodríguez de las Heras Ballellin, High-risk AI systems in the European AI Act, in G. Finocchiaro – F. Donati – F. Paolucci – O. Pollicino, La disciplina dell’intelligenza artificiale, cit., 227.
[13] Cfr. art. 50 dell’AI Act. Per un approfondimento, tra i pertinenti richiami di cui alla nt. 2, cfr. T. Gils, Article 50. Transparency Obligations for Providers and Deployers of Certain AI Systems, in C.N. Pehlivan – N. Forgó – P. Valck (a cura di), The EU Artificial Intelligence (AI) Act: A Commentary, cit., 776; L. Anselmi, Le IA che si rapportano con umani, in G. Cassano – E.M. Tripodi (a cura di), Il Regolamento Europeo sull’Intelligenza Artificiale. Commento al Reg. UE n. 1689/2024 , cit., 629; E. Longo – F. Paolucci, The Article 50 of the AI Act and the transparency obligations: the model and its limitations, in G. Finocchiaro – F. Donati – F. Paolucci – O. Pollicino, La disciplina dell’intelligenza artificiale, cit., 275; G. Taddei Elmi – A. Contaldo (a cura di), Intelligenza artificiale. AI Act – Regolamento (UE) 1689/2024 . Il nuovo scenario giuridico europeo, cit., 145.
[14] Art. 3, par. 1, n. 3, dell’AI Act. Per un’analisi della definizione, cfr. L. Feiler – B. König, Article 3. Definitions, in C.N. Pehlivan – N. Forgó – P. Valck (a cura di), The EU Artificial Intelligence (AI) Act: A Commentary, cit., 60. È peraltro riconosciuto il possibile cumulo di più ruoli – e quindi dei connessi obblighi – ai sensi dell’AI Act: “Operators may fulfil more than one role concurrently in relation to an AI system. For example, if an operator develops its own AI system that it uses afterwards, it will be considered both the provider and the deployer of that system, even if that system is also used by other deployers to whom the system has been provided in return for payment or free of charge” (Commissione europea, Commission Guidelines on prohibited artificial intelligence practices established by Regulation (EU) 2024/1689 (AI Act), cit., 6).
[15] Art. 3, par. 1, n. 4, dell’AI Act. Resta escluso il caso in cui il sistema di IA sia utilizzato nel corso di un’attività personale non professionale. Per un’analisi della definizione, cfr. L. Feiler – B. König, Article 3. Definitions, in C.N. Pehlivan – N. Forgó – P. Valck (a cura di), The EU Artificial Intelligence (AI) Act: A Commentary, cit., 61. Per una prima valutazione degli impatti nel contesto lavorativo, cfr. L. Barbieri, Sistemi d’intelligenza artificiale ad alto rischio: obblighi del datore di lavoro utilizzatore, Diritto & Pratica del Lavoro, 2025, 15, 869.
[16] Tra cui, in particolare, importatori (ex art. 3, par. 1, n. 6), dell’AI Act: “una persona fisica o giuridica ubicata o stabilita nell’Unione che immette sul mercato un sistema di IA recante il nome o il marchio di una persona fisica o giuridica stabilita in un paese terzo”) e distributori (ex art. 3, par. 1, n. 7), dell’AI Act: “una persona fisica o giuridica nella catena di approvvigionamento, diversa dal fornitore o dall’importatore, che mette a disposizione un sistema di IA sul mercato dell’Unione”).
[17] C.N. Pehlivan, Article 113. Entry into Force and Application, in C.N. Pehlivan – N. Forgó – P. Valck (a cura di), The EU Artificial Intelligence (AI) Act: A Commentary, cit., 1463.
[18] Art. 1 (“Oggetto”), art. 2 (“Ambito di applicazione”) e art. 3 (“Definizioni”) dell’AI Act.
[19] Art. 5 dell’AI Act.
[20] M. Paolini e Silva – A. Tamò-Larrieux – O. Ammann, AI Literacy Under the AI Act: Tracing the Evolution of a Weakened Norm, in SSRN Electronic Journal, 2025, 2.
[21] Tale analisi farà affidamento anche sui primi atti di interpretazione autentica emanati in materia, e in particolare sul documento “AI Literacy – Questions & Answers”, pubblicato dalla Commissione europea il 7 maggio 2025 e da ultimo aggiornato in data 8 luglio 2025.
[22] Art. 14 dell’AI Act.
[23] Art. 11 dell’AI Act.
[24] Art. 86 dell’AI Act.
[25] T. Cabral, AI Literacy Under the AI Act: An Assessment of its Scope, in SSRN Electronic Journal, 2025, 1.
[26] E. Fernandes – W. Holmes – S. Zhgenti, Article 4. AI Literacy, in C.N. Pehlivan – N. Forgó – P. Valck (a cura di), The EU Artificial Intelligence (AI) Act: A Commentary, cit., 89. Sul punto è interessante richiamare anche la Convenzione quadro del Consiglio d’Europa sull’intelligenza artificiale e i diritti umani, la democrazia e lo Stato di diritto, adottata a Strasburgo il 17 maggio 2024, al cui art. 20 si parla di “Digital literacy and skills” (“Each Party shall encourage and promote adequate digital literacy and digital skills for all segments of the population, including specific expert skills for those responsible for the identification, assessment, prevention and mitigation of risks posed by artificial intelligence systems”).
[27] Commissione europea, Proposta di regolamento del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull’intelligenza artificiale (legge sull’intelligenza artificiale) e modifica alcuni atti legislativi dell’Unione, Bruxelles, 21.4.2021, COM(2021) 206 final.
[28] M. Paolini e Silva – A. Tamò-Larrieux – O. Ammann, AI Literacy Under the AI Act: Tracing the Evolution of a Weakened Norm, cit., 2, che rileva anche come, prima di tale momento, nella proposta di regolamento e in altri documenti istituzionali erano presenti termini correlati come “istruzione”, “formazione”, “competenze” e “conoscenze”, senza un’enfasi coesa sul concetto di alfabetizzazione.
[29] Ivi, 7.
[30] Taddei Elmi – A. Contaldo (a cura di), Intelligenza artificiale. AI Act – Regolamento (UE) 1689/2024 . Il nuovo scenario giuridico europeo, cit., 415.
[31] E. Fernandes – W. Holmes – S. Zhgenti, Article 4. AI Literacy, in C.N. Pehlivan – N. Forgó – P. Valck (a cura di), The EU Artificial Intelligence (AI) Act: A Commentary, cit., 93, che nota anche che l’articolo non prende in considerazione la necessità di altri soggetti all’interno della società di essere supportati nel processo di alfabetizzazione: ciò sarebbe dovuto anche all’origine dell’AI Act quale normativa sulla sicurezza dei prodotti, e con ciò le norme sull’AI literacy sono ancora viste come un mero mezzo affinché gli operatori della catena di valore dell’IA rispettino le regole della legge (94-95).
[32] Per M. Paolini e Silva – A. Tamò-Larrieux – O. Ammann, AI Literacy Under the AI Act: Tracing the Evolution of a Weakened Norm, cit., 3, il depotenziamento della norma, insieme al suo inserimento tardivo nell’iter di approvazione della legge, sembra abbia fatto perdere al legislatore europeo un’opportunità di affrontare le preoccupazioni sociali connesse all’avvento dell’IA, lasciando un vuoto nell’educazione sull’IA sia per la società che per il mercato.
[33] T. Cabral, AI Literacy Under the AI Act: An Assessment of its Scope, cit., 2.
[34] Il considerando 91 dell’AI Act chiarisce anche che “i deployer dovrebbero garantire che le persone alle quali è affidata l’attuazione delle istruzioni per l’uso e della sorveglianza umana di cui al […] regolamento dispongano delle competenze necessarie, in particolare un livello adeguato di alfabetizzazione, formazione e autorità in materia di IA per svolgere adeguatamente tali compiti”.
[35] E. Fernandes – W. Holmes – S. Zhgenti, Article 4. AI Literacy, in C.N. Pehlivan – N. Forgó – P. Valck (a cura di), The EU Artificial Intelligence (AI) Act: A Commentary, cit., 95.
[36] Commissione europea, AI Literacy – Questions & Answers.
[37] E. Fernandes – W. Holmes – S. Zhgenti, Article 4. AI Literacy, in C.N. Pehlivan – N. Forgó – P. Valck (a cura di), The EU Artificial Intelligence (AI) Act: A Commentary, cit., 95.
[38] Ivi, 96.
[39] Ivi, 97.
[40] Commissione europea, AI Literacy – Questions & Answers, ove viene altresì aggiunto che “[l]e considerazioni a, b, c e d includono aspetti di natura legale ed etica. Si incoraggiapertanto il collegamento con la normativa UE sull’IA (i.e. la comprensione dell’AI Act) e con i principi di etica e governance” (TdA).
[41] Rispetto al quale la Commissione richiama la mancanza di un approccio unico valido per tutti in materia di AI literacy,dovendosi guardare alle circostanze dal contesto concreto (Commissione europea, AI Literacy – Questions & Answers).
[42] Sul punto è precisato che “l’articolo 4 dell’AI Act incoraggia fornitori e deployer a tenere conto delle conoscenze, dell’esperienza, dell’istruzione e della formazione del personale e delle altre persone al fine di garantire un livello sufficiente di alfabetizzazione in materia di IA. Data la differenza tra i sistemi di IA e il fatto che il livello di conoscenza ed esperienza, nonché il tipo di istruzione e formazione ricevute, possono variare, può essere opportuno prevedere diversi livelli di formazione o approcci di apprendimento” (TdA) (Commissione europea, AI Literacy – Questions & Answers).
[43] A riguardo viene chiarito che non è necessario alcun certificato a tal fine, potendo le organizzazioni tenere un registro interno dei corsi e delle attività svolte (Commissione europea, AI Literacy – Questions & Answers).
[44] Sul tema la dottrina è assai vasta. Si richiamano, ex multis, P. De Vita, Formazione dei lavoratori e dei responsabili/addetti, in M. Tiraboschi (a cura di), Il Testo Unico della salute e sicurezza nei luoghi di lavoro, Milano, 2008, 495; S. Palladini, La formazione dei lavoratori e dei loro rappresentanti (art. 37 , D.Lgs. 9.4.2008, n. 81 ), in E. Gragnoli – F. Carinci (a cura di), Codice Commentato della Sicurezza sul lavoro, Milano, 2010, 347; R. Del Punta, Commento all’articolo 37, in L. Montuschi (diretto da), La nuova sicurezza sul lavoro, vol. I, Principi comuni (a cura di C. Zoli), Bologna, 2011, 439; P. Pascucci, Appunti su alcune questioni in tema di formazione per la sicurezza sul lavoro, in Lavoro, istituzioni, cambiamento sociale. Studi in onore di Tiziano Treu, Napoli, 2011, 1115; T. Giornale, Informazione e formazione: strumenti di prevenzione soggettiva, in G. Natullo (a cura di), Salute e sicurezza sul lavoro, Torino, 2015; R. Guariniello, Il T.U. Sicurezza sul lavoro commentato con la giurisprudenza, Milano, 2024, 755.
[45] C. Alessi, La formazione in materia di salute e sicurezza sul lavoro di fronte alle sfide della transizione ecologica e digitale, in L. Foffani – G. Pellacani – R. Orlandi – L. Lodi (a cura di), La dimensione dinamica della salute e della sicurezza sul lavoro nel contesto locale, Torino, 2024, 26.
[46] P. Pascucci, Prevenzione, organizzazione e formazione. A proposito di un recente libro sulla sicurezza sul lavoro, in Dir. sic. lav., 2016, 1, 80, per il quale “se l’obbligo di valutazione dei rischi costituisce la pietra angolare su cui si regge il sistema di prevenzione aziendale, quello di formazione ne rappresenta idealmente il logico sviluppo identificabile come il muro portante dal quale dipende la stabilità dell’intero edificio”.
[47] P. Tullini, La formazione per la sicurezza sul lavoro, in Dir. sic. lav., 2017, 1, 76, per cui tale definizione “configura un diritto/dovere alla formazione da intendersi come l’architrave che sostiene, in linea orizzontale, l’intero edificio della prevenzione dei rischi nell’ambiente di lavoro”.
[48] “Complesso delle attività dirette a fornire conoscenze utili alla identificazione, alla riduzione e alla gestione dei rischi in ambiente di lavoro” (art. 2, comma 1, lett. bb, del T.U.).
[49] “Complesso delle attività dirette a fare apprendere ai lavoratori l’uso corretto di attrezzature, macchine, impianti, sostanze, dispositivi, anche di protezione individuale, e le procedure di lavoro” (art. 2, comma 1, lett. cc, del T.U.).
[50] C. Alessi, La formazione in materia di salute e sicurezza sul lavoro di fronte alle sfide della transizione ecologica e digitale, in L. Foffani – G. Pellacani – R. Orlandi – L. Lodi (a cura di), La dimensione dinamica della salute e della sicurezza sul lavoro nel contesto locale, cit., 28. Sul punto è possibile citare anche, da un lato, P. Tullini, La formazione per la sicurezza sul lavoro, in Dir. sic. lav., cit., che mette in luce la necessità di tenere distinti i concetti e, dall’altro, L. Angelini, Le sfide della formazione per la sicurezza sul lavoro, in Dir. sic. lav., 2022, 1, che evidenza la convergenza strategica e funzionale tra i vari concetti.
[51] Si tratta di una delle novità introdotte dal D.L. n. 146/2021 (conv. in L. n. 215/2021 ). Per un approfondimento, cfr. C. Alessi, La formazione in materia di sicurezza dopo il d.l. 21 ottobre 2021, n. 146 , in Dir. sic. lav., 2022, 62.
[52] G. Leone, Le declinazioni della formazione nella sicurezza organizzata, in Dir. sic. lav., 2016, 2, 21.
[53] C. Alessi, La formazione in materia di sicurezza dopo il d.l. 21 ottobre 2021, n. 146 , in Dir. sic. lav., cit., 72.
[54] P. Tullini, La formazione per la sicurezza sul lavoro, in Dir. sic. lav., cit., 77.
[55] C. Alessi, La formazione in materia di salute e sicurezza sul lavoro di fronte alle sfide della transizione ecologica e digitale, in L. Foffani – G. Pellacani – R. Orlandi – L. Lodi (a cura di), La dimensione dinamica della salute e della sicurezza sul lavoro nel contesto locale, cit., 30.
[56] Ad esempio, si prevede che le attività di formazione dei preposti “devono essere svolte interamente con modalità in presenza e essere ripetute con cadenza almeno biennale” (comma 7-ter) e che “[l]a formazione dei lavoratori e quella dei loro rappresentanti deve avvenire […] durante l’orario di lavoro” (comma 12).
[57] Il testo del provvedimento è stato pubblicato in data 19 maggio 2025 sul sito del Ministero del lavoro e delle politiche sociali (atto repertorio n. 75 del 19 maggio 2025).
[58] Vale a dire l’Accordo del 21 dicembre 2011 sui corsi di formazione per lo svolgimento diretto, da parte del datore di lavoro, dei compiti di prevenzione e protezione dai rischi, ai sensi dell’art. 34 , commi 2 e 3, D.Lgs. 9 aprile 2008, n. 81 (Rep. Atti n. 223/CSR) (G.U., n. 8 dell’11 gennaio 2012), l’Accordo del 21 dicembre 2011 per la formazione dei lavoratori, ai sensi dell’art. 37 , comma 2, D.Lgs. 9 aprile 2008, n. 81 (Rep. Atti n. 221/CSR) (G.U., n. 8 dell’11 gennaio 2012), l’Accordo del 22 febbraio 2012 concernente l’individuazione delle attrezzature di lavoro per le quali è richiesta una specifica abilitazione degli operatori, nonché le modalità per il riconoscimento di tale abilitazione, i soggetti formatori, la durata, gli indirizzi ed i requisiti minimi di validità della formazione, in attuazione dell’art. 73 , comma 5, D.Lgs. 9 aprile 2008, n. 81 e successive modifiche e integrazioni (Rep. Atti n. 53/CSR) (G.U. n. 60 del 12 marzo 2012), l’Accordo tra il Governo, le Regioni e le Province autonome di Trento e di Bolzano, sul documento proposto dal Ministero del lavoro e delle politiche sociali recante “Adeguamento e linee applicative degli accordi ex articolo 34 , comma 2 e 37, comma 2 del decreto legislativo 9 aprile 2008, n. 81 e successive modificazioni e integrazioni” (Rep. Atti n. 153/CSR del 25 luglio 2012) (G.U., n. 192 del 18 agosto 2012), l’Accordo del 7 luglio 2016 finalizzato alla individuazione della durata e dei contenuti minimi dei percorsi formativi per i responsabili e gli addetti dei servizi di prevenzione e protezione, ai sensi dell’art. 32 , D.Lgs. 9 aprile 2008, n. 81 e successive modificazioni (Rep. Atti n. 128/CSR) (G.U., n. 193 del 19 agosto 2016).
[59] Reg. UE 2016/679 del Parlamento europeo e del Consiglio del 27 aprile 2016 relativo alla protezione delle persone fisiche con riguardo al trattamento dei dati personali, nonché alla libera circolazione di tali dati e che abroga la Dir. 95/46/CE (regolamento generale sulla protezione dei dati), in G.U.U.E., L 119/1 del 4 maggio 2016.
[60] Per un inquadramento della normativa, ex multis, F. Pizzetti, Privacy e il diritto europeo alla protezione dei dati personali. Dalla Direttiva 95/46 al nuovo Regolamento europeo, Torino, 2016; F. Pizzetti, Privacy e il diritto europeo alla protezione dei dati personali. Il Regolamento europeo 2016/679 , vol. 1 e 2, Torino, 2016; L. Bolognini – E. Pelino – C. Bistolfi, Il regolamento privacy europeo. Commentario alla nuova disciplina sulla protezione dei dati personali, Milano, 2016; A. Ciccia Messina – N. Bernardi, Privacy e regolamento europeo, Milano, 2016; G. Finocchiaro (a cura di), Il nuovo Regolamento europeo sulla privacy e sulla protezione dei dati personali, Bologna, 2017; F. Costantini, Il Regolamento (UE) 679/2016 sulla protezione dei dati personali, in questa Rivista, 2018, 6, 545; R. Panetta (a cura di), Circolazione e protezione dei dati personali, tra libertà e regole del mercato, Milano, 2019; R. Sciaudone – E. Caravà (a cura di), Il codice della privacy. Commento al D. Lgs. 30 giugno 2003, n. 196 e al D. Lgs 10 agosto 2018, n. 101 alla luce del Regolamento (UE) 2016/679 (GDPR), Pisa, 2019; E. Tosi (a cura di). Privacy digitale. Riservatezza e protezione dei dati personali tra GDPR e nuovo Codice Privacy, Milano, 2019; C. Kuner – L. Bygrave – C. Docksey – L. Drechsler, The EU General Data Protection Regulation. A Commentary, Oxford, 2020; G. Finocchiaro – R. D’orazio – O. Pollicino – G. Resta (a cura di), Codice della privacy e data protection, Milano, 2021; G.M. Riccio – G. Scorza – E. Belisario (a cura di), GDPR e normativa privacy commentario, Milano, 2022; L. Bolognini – E. Pelino (a cura di), Codice della disciplina Privacy, Milano, 2024.
[61] Art. 4 , par. 1, n. 7, del GDPR .
[62] Art. 4 , par. 1, n. 8, del GDPR .
[63] L. Ferola, Articolo 29 – Trattamento sotto l’autorità del titolare del trattamento o del responsabile del trattamento, in G. M. Riccio – G. Scorza – E. Belisario (a cura di), GDPR e normativa privacy commentario, cit., 351.
[64] Ivi, 350.
[65] Ivi, 352.
[66] “Il titolare del trattamento e il responsabile del trattamento fanno sì che chiunque agisca sotto la loro autorità e abbia accesso a dati personali non tratti tali dati se non è istruito in tal senso dal titolare del trattamento, salvo che lo richieda il diritto dell’Unione o degli Stati membri”.
[67] Per un approfondimento sulla figura del DPO, oltre ai pertinenti richiami di cui alla nt. 60, v. R. Panetta – T. Mauro – F. Sartore, Il Data Protection Officer tra regole e prassi, Milano, 2023.
[68] Trattasi dei principi di liceità, correttezza e trasparenza, limitazione della finalità, minimizzazione dei dati, esattezza, limitazione della conservazione, integrità e riservatezza. Per un’analisi di dettaglio, ex multis, v. nt. 60, tra cui G. Franco – E. Pelino – F. Sartore, Commento all’articolo 5 del Regolamento (UE) 2016/679 , in L. Bolognini – E. Pelino (a cura di), Codice della disciplina Privacy, cit., 81.
[69] Art. 5 , par. 2, GDPR . Per un approfondimento, v. nt. 68.
[70] WP29, Parere 3/2010 sul principio di responsabilità, adottato il 13 luglio 2010, 12.
[71] E anche in relazione alla formazione in materia di salute e sicurezza sul lavoro è possibile ragionare in termini di formazione complementare: sul punto, cfr. C. Alessi, La formazione in materia di salute e sicurezza sul lavoro di fronte alle sfide della transizione ecologica e digitale, in L. Foffani – G. Pellacani – R. Orlandi – L. Lodi (a cura di), La dimensione dinamica della salute e della sicurezza sul lavoro nel contesto locale, cit., 37, secondo cui “[t]ra i contenuti necessari della formazione in materia di sicurezza […] vanno inserite certamente le misure di prevenzione dei rischi derivanti dall’utilizzo, nello svolgimento dell’attività lavorativa, dell’intelligenza artificiale”.
[72] Art. 66, par. 1, lett. f), dell’AI Act.
[73] Considerando 20 dell’AI Act, che trova applicazione nel successivo art. 95, par. 2, lett. c), dell’AI Act.
[74] Si tratta del “Living Repository of AI Literacy Practices” (ultimo aggiornamento 16 aprile 2025) (consultabile online).
[75] Sebbene le norme dell’AI Act in materia di supervisione ed esecuzione si applicheranno a decorrere dal 2 agosto 2026. Sul punto, la Commissione europea ha chiarito quanto segue: “La supervisione e l’applicazione dell’articolo 4 dell’AI Act non sono di competenza dell’Ufficio per l’IA, ma rientrano nelle attribuzioni delle autorità nazionali di vigilanza del mercato che dovranno essere designate entro il 2 agosto 2025. Le autorità nazionali di vigilanza del mercato inizieranno a supervisionare e applicare le norme a partire dal 2 agosto 2026” (TdA) (Commissione europea, AI Literacy – Questions & Answers).
***** l’articolo pubblicato è ritenuto affidabile e di qualità*****
Visita il sito e gli articoli pubblicati cliccando sul seguente link