AI Act istituisce un impiantorisk-based che qualifica le pratiche vietate, definisce requisiti cogenti per i sistemi ad alto rischio, impone obblighi di trasparenza per le applicazioni a rischio limitato e introduce un regime dedicato ai modelli di IA per finalità generali.
La disciplina prevede, all’articolo 4, sin dalla prima fase applicativa, un dovere trasversale di alfabetizzazioneche riguarda operatori economici, amministrazioni e, per quanto di rispettiva competenza, gli utenti coinvolti nei processi decisionali mediati da sistemi di IA.
La struttura dell’AI Act prevede un’applicazione progressiva degli obblighi nel tempo; il legislatore ha scandito l’operatività del regolamento in fasi successive, così da consentire un allineamento ordinato degli operatori e delle amministrazioni. La logica sottesa privilegia un avvio immediato delle cautele più incisive sul piano dei diritti fondamentali, per poi estendere gli adempimenti agli ambiti di trasparenza, ai requisiti dei sistemi ad alto rischio e, da ultimo, al pieno regime dell’ecosistema di governance.
Primo scaglione: febbraio 2025
In questa data entrano in vigore i divieti per le pratiche ritenute inaccettabili. La disciplina colpisce le forme di impiego dell’IA con potenziale lesivo per la dignità e le libertà al fine di porre un argine immediato alle applicazioni considerate incompatibili con l’ordinamento europeo.
Nella medesima soglia temporale decorre l’obbligo di alfabetizzazione all’IA previsto dall’articolo 4: gli operatori devono assicurare conoscenze adeguate a chi progetta, integra o utilizza sistemi di IA, con iniziative di informazione e formazione finalizzate alla consapevolezza dei rischi, dei limiti e delle cautele di impiego. La decorrenza dell’obbligo è immediata; il regime sanzionatorio, come precisato oltre, si attiva in una fase successiva.
Secondo scaglione: agosto 2025
La seconda tappa riguarda gli obblighi di trasparenza per i sistemi a rischio limitato. Gli utenti devono ricevere avvisi chiari quando interagiscono con un sistema di IA; i contenuti sintetici o manipolati devono risultare riconoscibili; i trattamenti che si avvalgono di riconoscimento emozionale o di categorizzazione biometrica richiedono cautele informative ulteriori. In parallelo si avviano i primi adempimenti connessi ai modelli a finalità generale, in particolare nelle componenti di documentazione e informazione lungo la filiera verso gli integratori a valle, così da porre le basi per una responsabilizzazione progressiva dell’ecosistema.
Terzo scaglione: agosto 2026
Si consolidano i presìdi per i sistemi ad alto rischio, cardine della regolazione europea. Diventano, quindi, vincolanti i requisiti che attengono alla gestione del rischio, alla governance e qualità dei dati, alla documentazione tecnica e alla tracciabilità, oltre alla supervisione umana e alla sorveglianza post-commercializzazione. Nella stessa data si attiva l’enforcement sanzionatorio dell’alfabetizzazione: l’obbligo, già vigente dal 2025, entra in una fase di piena vigilanza e responsabilità, con la conseguente necessità di programmi formativi strutturati, tracciabili e commisurati ai ruoli. Si rafforzano, inoltre, gli obblighi per i modelli a impatto sistemico, con misure aggiuntive in materia di sicurezza, valutazione e resilienza tecnica.
Quarto scaglione: agosto 2027
Il regolamento raggiunge la completa applicazione. Le procedure di valutazione di conformità entrano a regime, il sistema di vigilanza del mercato opera in modo pieno e l’intero quadro di governance istituzionale risulta stabilizzato. L’insieme di obblighi, cautele e responsabilità si presenta in un assetto coerente, con una distribuzione degli oneri proporzionata al rischio e una tutela effettiva dei diritti coinvolti. In questa fase il sistema europeo esprime la sua architettura definitiva, con una filiera di accountability che coinvolge progettisti, fornitori, integratori e utilizzatori, secondo criteri di trasparenza, sicurezza e controllo umano che attraversano l’intero ciclo di vita dei sistemi di intelligenza artificiale.
Ddl AI: un inquadramento
Il disegno di legge italiano sull’intelligenza artificiale, già approvato dalla Camera con modifiche e rientrato al Senato, adotta un’impostazione pienamente coerente con l’AI Act. L’architettura normativa nazionale persegue un allineamento sostanziale con il quadro europeo e concentra l’intervento su profili di principio, su assetti di governance e su strumenti di coordinamento istituzionale, senza sovrapporre livelli precettivi ulteriori rispetto alla disciplina unionale dei sistemi e dei modelli.
Il testo recepisce le definizioni dell’AI Act e ne conserva la tassonomia, la scelta assicura una continuità terminologica e applicativa lungo l’intera filiera, favorisce l’interoperabilità regolatoria e limita il rischio di divergenze interpretative tra fonti di diverso rango.
Sul piano assiologico, il disegno di legge rafforza i principi generali a tutela del metodo democratico, della vita istituzionale e del dibattito pubblico. L’ordinamento valorizza, in questo contesto, i canoni di autonomia e sussidiarietàdelle istituzioni territoriali e richiama un dovere di protezione dell’integrità del confronto democratico rispetto a interferenze illecite, con un’attenzione specifica ai diritti fondamentali riconosciuti a livello nazionale ed europeo.
La disciplina integra le garanzie in materia di protezione dei dati personali. Una clausola espressa riguarda i minori infraquattordicenni: l’accesso ai sistemi di intelligenza artificiale e il correlato trattamento dei dati richiedono il consenso di chi esercita la responsabilità genitoriale.
In chiave di politica industriale, il testo promuove sviluppo economico e competitività del tessuto produttivo. In tale contesto, la robotica assume la funzione di strumento integrativo dell’intelligenza artificiale; l’attenzione si concentra su micro, piccole e medie imprese, con l’obiettivo di innalzare la produttività delle catene del valore e di consolidare la sovranitàtecnologica nel perimetro della strategia europea.
Sul versante organizzativo, il disegno di legge stabilisce il quadro di governance istituzionale: presso la Presidenza del Consiglio dei ministri assume il baricentro del Comitato di coordinamento per gli enti che operano nell’innovazione digitale e nell’intelligenza artificiale. In tale quadro individua in ACN e AGID le autorità preposte ai controlli sull’AI ACT.
Il testo disciplina i partenariati pubblici e pubblico-privati, con regole puntuali per le collaborazioni nazionali ed europee e con cautele mirate nei rapporti con soggetti di Paesi terzi, alla luce dell’interesse nazionale e del necessario presidio di sicurezza e affidabilità.
Completa l’impianto la delega al Governo per una disciplina relativa a dati, algoritmi e metodi matematici destinati all’addestramento dei sistemi di intelligenza artificiale. La delega prevede un termine di dodici mesi dall’entrata in vigore della legge per l’adozione dei decreti legislativi settoriali.
Al fine di conformità, le organizzazioni risultano tenute a predisporre un percorso di pianificazione volto al rispetto delle scadenze. Il punto di avvio coincide con la mappatura integrale dei sistemi di intelligenza artificiale, già necessaria in vista della soglia di febbraio 2025 e, al contempo, funzionale all’obbligo di alfabetizzazione. Pur con sanzionabilità fissata ad agosto 2026, l’obbligo de quo presuppone la piena conoscenza del perimetro tecnologico e organizzativo in cui il sistema opera; senza tale ricognizione, ogni programma formativo difetterebbe di base fattuale. La mappatura dovrà, pertanto, comprendere finalità effettive, flussi decisionali automatizzati, basi giuridiche e punti di impatto sui diritti, con esito in un inventario aggiornato e nella rimozione delle funzionalità non ammissibili, corredati da evidenze idonee a documentare le determinazioni assunte. Resta fermo che, ancor prima dell’avvio dell’enforcement, un evento lesivo potrebbe comportare responsabilità anche sul piano contrattuale.
Per quanto riguarda i sistemi ad alto rischio sarà necessario implementare un piano di gestione del rischio con criteri e metriche, governance dei dati orientata a qualità, rappresentatività e tracciabilità, documentazione tecnica integrale, registri degli eventi, supervisione umana definita per responsabilità e piani di sorveglianza post-commercializzazione; a ciò si aggiungono test pre-rilascio e riesami periodici con soglie di accettazione chiare. nei rapporti con i fornitori di modelli a finalità generale servono dossier informativi, clausole contrattuali su aggiornamenti, gestione delle vulnerabilità e notifiche di incidente, prove di robustezza e restrizioni d’uso coerenti con gli scopi dichiarati; per i modelli a impatto sistemico risultano necessari presìdi ulteriori e attività di red team con cadenza prestabilita.
Sul piano organizzativo giova un presidio interno per l’IA con compiti di policy, istruttorie autorizzative e reporting, in raccordo stabile con DPO, CISO e funzioni compliance, nonché un canale dedicato verso gli indirizzi della presidenza del consiglio e verso le autorità competenti; il medesimo presidio predispone gli adeguamenti ai futuri decreti delegati e alle linee guida nazionali.
Copyright © – Riproduzione riservata
***** l’articolo pubblicato è ritenuto affidabile e di qualità*****
Visita il sito e gli articoli pubblicati cliccando sul seguente link