L’AI Act, approvato dall’Unione Europea nel 2024, ha già iniziato a produrre effetti concreti sul tessuto imprenditoriale italiano. Tra le disposizioni entrate in vigore fin da subito, spicca l’obbligo di garantire percorsi di formazione sull’intelligenza artificiale a tutti i soggetti che sviluppano o utilizzano sistemi basati su queste tecnologie. Non si tratta di un dettaglio tecnico, ma di un cambiamento che ridefinisce la gestione interna delle competenze e pone le aziende di fronte a una sfida organizzativa di ampio respiro. Come ha spiegato l’avvocato Gabriele Franco, counsel di Panetta Studio Legale, durante il convegno AI for OCX: le strategie delle aziende italiane degli Osservatori Digital Innovation del Politecnico di Milano, la formazione rappresenta un tassello fondamentale per trasformare la compliance in un vantaggio competitivo.
L’obbligo formativo previsto dall’AI Act
Secondo quanto illustrato da Franco, dal febbraio 2024 «tutti i fornitori e i deployer, quindi le aziende che sviluppano o utilizzano sistemi di intelligenza artificiale, devono formare dipendenti, collaboratori e persino i fornitori terzi sull’uso corretto di queste tecnologie». La normativa non lascia spazio a interpretazioni: l’alfabetizzazione all’AI è richiesta per chiunque entri in contatto con gli strumenti adottati dall’azienda, e non solo per i ruoli tecnici o manageriali.
La logica è quella di garantire una conoscenza minima e condivisa dei rischi, dei benefici e delle modalità di utilizzo. Il legislatore europeo ha scelto di trattare il tema in modo trasversale, senza limitarsi a settori specifici o a tipologie particolari di impiego, proprio perché l’impatto dell’AI attraversa ogni livello organizzativo. Per Franco, l’obbligo formativo ricorda quello già noto in materia di sicurezza sul lavoro: «occorre formare i lavoratori su come usare questi sistemi, su quali rischi possono portare e quali misure di garanzia devono essere adottate».
La declinazione pratica della formazione
La Commissione Europea ha fornito alcune prime indicazioni operative. Non è prevista una certificazione formale, ma le aziende devono comunque tracciare e documentare le attività svolte. Ciò significa che sarà necessario mantenere un registro aggiornato, in grado di dimostrare l’effettiva erogazione dei percorsi formativi. Allo stesso tempo, l’approccio deve essere multilivello e differenziato: un dipendente che utilizza quotidianamente un chatbot generativo richiede un set di conoscenze diverso rispetto a chi gestisce un sistema di analisi dei dati biometrici classificato come ad alto rischio.
In questo quadro, la formazione non è pensata come un corso unico e indistinto, ma come un insieme di moduli calibrati sulla base del ruolo aziendale e della tipologia di sistema utilizzato. L’obiettivo dichiarato è quello di assicurare un livello di competenza sufficiente per garantire non solo l’uso corretto delle tecnologie, ma anche la consapevolezza dei limiti e delle implicazioni etiche e legali.
Differenze tra sistemi a rischio limitato e sistemi ad alto rischio
La portata dell’obbligo formativo varia in funzione della categoria di rischio associata ai sistemi di intelligenza artificiale. Secondo Franco, «avere sistemi di alto rischio porta a fare una formazione molto diversa rispetto ad avere un unico sistema che pone un rischio limitato».
Un chatbot, ad esempio, rientra nelle applicazioni a rischio limitato e richiede prevalentemente la comprensione dei principi di trasparenza e dell’obbligo di segnalare all’utente che sta interagendo con una macchina. Al contrario, l’uso di strumenti biometrici in fase di vendita, come occhiali o indossabili capaci di raccogliere dati sensibili, ricade nella fascia ad alto rischio. In questo caso, la formazione deve includere aspetti di governance dei dati, requisiti di rappresentatività dei dataset, tecniche di oversight umano e procedure per la gestione dei log.
L’ampiezza di queste differenze rende chiaro come il percorso di adeguamento non possa essere standardizzato, ma debba necessariamente adattarsi alla specifica realtà aziendale.
Un vincolo che diventa leva di fiducia
La formazione obbligatoria introdotta dall’AI Act ha una ricaduta che va oltre la compliance. Secondo l’avvocato, «i clienti, i consumatori e persino le controparti contrattuali iniziano a richiedere sempre più una compliance preventiva alle nuove normative in materia di intelligenza artificiale». Poter dimostrare di avere personale formato e consapevole diventa un segnale di affidabilità.
Franco ha spiegato come, lavorando su progetti di compliance sia legati al GDPR sia all’AI Act, emerga con forza un trend di mercato: la competenza sull’AI e la capacità di gestirla internamente stanno diventando parametri di scelta da parte di clienti e partner. In altre parole, l’obbligo di formazione non è solo una questione di adeguamento normativo, ma può trasformarsi in un vantaggio competitivo per le aziende che sanno anticipare le richieste e comunicare il proprio impegno.
La dimensione organizzativa della compliance
Per rispettare la nuova normativa, le imprese devono sviluppare un vero e proprio sistema interno di compliance. La formazione rappresenta uno dei pilastri di questo percorso, insieme alla mappatura dei sistemi in uso e agli assessment sui rischi associati. L’avvocato ha sottolineato che «la compliance non può ridursi a un insieme di carte, ma deve tradursi in politiche concrete e in un modello di governance capace di presidiare le applicazioni adottate o in fase di adozione».
Da questo punto di vista, la formazione diventa il punto di contatto tra governance e operatività: un lavoratore che conosce i rischi e le regole è in grado di tradurre in pratica i principi fissati dalla normativa e dalle policy aziendali. L’alfabetizzazione diffusa rappresenta quindi un tassello imprescindibile per costruire fiducia e ridurre le possibilità di errore o di utilizzo improprio dei sistemi.
Un percorso già avviato
Se molte scadenze dell’AI Act sono previste per i prossimi anni, la formazione è già oggi un vincolo cogente. Dal febbraio 2024 le aziende devono aver attivato politiche formative conformi, con registri interni aggiornati e un approccio multilivello che tenga conto della diversità dei ruoli. La tempistica, come ricordato da Franco, non lascia margini di attesa: «da febbraio di quest’anno le aziende devono aver adottato, per rispettare l’AI Act, politiche di formazione in materia di intelligenza artificiale».
Il legislatore ha scelto un’entrata progressiva della normativa proprio per consentire un adeguamento graduale, ma sul fronte della formazione ha imposto una partenza immediata, ritenendola essenziale per assicurare un livello minimo di consapevolezza diffusa. Questo significa che le imprese italiane sono già chiamate a dimostrare di aver implementato processi strutturati e documentati, pena il rischio di sanzioni e la perdita di credibilità sul mercato.
***** l’articolo pubblicato è ritenuto affidabile e di qualità*****
Visita il sito e gli articoli pubblicati cliccando sul seguente link
