Dilazioni debiti fiscali

Assistenza fiscale

 

DDL sull’intelligenza artificiale: principi, sanità, lavoro, vigilanza e investimenti per 1 miliardo


Finanziamenti e agevolazioni

Agricoltura

 

Il DDL 1146-B introduce per la prima volta in Italia una cornice organica per ricerca, sviluppo, adozione e utilizzo dei sistemi e dei modelli di intelligenza artificiale. Il testo, collegato alla manovra di finanza pubblica e approvato da Senato e Camera con modifiche, si coordina con il regolamento (UE) 2024/1689 e afferma un impianto antropocentrico, volto a cogliere le opportunità dell’AI mitigando rischi economici, sociali e sui diritti fondamentali. Il perimetro è chiaro: nessun nuovo obbligo oltre quelli dell’AI Act europeo per i sistemi e i modelli IA, mentre la legge nazionale fissa principi, governance, sperimentazioni e deleghe attuative.

Potrebbe interessarti anche

Principi generali, cybersicurezza by design e tutela del dibattito democratico

La legge dichiara che lo sviluppo e l’uso dell’AI devono rispettare Costituzione, diritto UE e principi di trasparenza, proporzionalità, sicurezza, protezione dati, accuratezza, non discriminazione, parità di genere e sostenibilità. Viene richiesta sorveglianza e intervento umano sui sistemi, con cybersicurezza come precondizione lungo l’intero ciclo di vita, secondo un approccio proporzionato e basato sul rischio. Il testo tutela anche la libertà del dibattito democratico da interferenze illecite e la sovranità dello Stato, impedendo che l’AI pregiudichi il metodo democratico della vita istituzionale. Non si introducono obblighi ulteriori rispetto all’AI Act per sistemi e modelli di finalità generale.

Conto e carta

difficile da pignorare

 

Informazione, privacy e minori

Nel settore dell’informazione, l’uso dell’AI non deve ledere pluralismo, libertà di espressione, obiettività, completezza, imparzialità e lealtà dell’informazione. Sul fronte privacy, il trattamento dei dati personali tramite AI deve essere lecito, corretto e trasparente, con informative chiare e semplici che permettano all’utente di conoscere i rischi e opporsi ai trattamenti autorizzati. Per i minori di 14 anni l’accesso a tecnologie AI e il correlato trattamento dei dati richiedono il consenso dei titolari della responsabilità genitoriale; dai 14 ai 18 anni il minore può esprimere il consenso, se l’informativa resta facilmente accessibile e comprensibile e nel rispetto di GDPR e Codice privacy.

Sanità digitale: piattaforma AGENAS, dati affidabili e percorsi di ricerca a rilevante interesse pubblico

In ambito sanitario, l’AI supporta prevenzione, diagnosi, cura e processi decisionali, senza sostituire la responsabilità del medico. Il DDL istituisce una piattaforma nazionale di intelligenza artificiale presso AGENAS, in qualità di Agenzia nazionale per la sanità digitale, per supportare la presa in carico della popolazione, la pratica clinica quotidiana dei medici con suggerimenti non vincolanti e l’accesso ai servizi delle Case della comunità. AGENAS è titolare del trattamento dei dati nella piattaforma, che deve usare solo quelli strettamente necessari; prima dell’attivazione dei trattamenti sono richiesti i pareri di Ministero della salute, Garante privacy e ACN, con specifiche misure tecniche e organizzative a tutela dei diritti degli interessati. Il legislatore dichiara di rilevante interesse pubblico le attività di ricerca e sperimentazione per sistemi AI dedicati a salute pubblica, sviluppo farmaci, tecnologie riabilitative, apparecchi medicali e studio della fisiologia anche in ambito non sanitario, abilitando uso secondario di dati privi di identificativi diretti presso soggetti qualificati. Si consente il trattamento per anonimizzazione, pseudonimizzazione o sintetizzazione dei dati, nel rispetto delle informative, e si prevede un meccanismo di silenzio-assenso: i trattamenti comunicati al Garante possono partire decorsi 30 giorni se non interviene un provvedimento di blocco. Entro 120 giorni dall’entrata in vigore della legge un decreto del Ministro della salute disciplinerà il trattamento dei dati, spazi di sperimentazione e uso secondario per ricerca e machine learning.

Lavoro e professioni: obbligo di informativa al lavoratore e limiti all’automazione decisionale

Nel mondo del lavoro l’AI va impiegata per migliorare condizioni lavorative, integrità psicofisica e produttività in conformità al diritto UE. L’uso deve essere sicuro, affidabile, trasparente, senza ledere dignità e riservatezza. Il datore di lavoro o committente ha l’obbligo di informare i lavoratori sull’uso dell’AI secondo l’articolo 1-bis del d.lgs. 152/1997. La legge istituisce anche un Osservatorio presso il Ministero del lavoro per definire una strategia, monitorare l’impatto e promuovere formazione di lavoratori e datori. Nelle professioni intellettuali l’AI ha funzione strumentale e di supporto: le informazioni sui sistemi usati vanno comunicate al cliente con linguaggio chiaro e esaustivo. Nella pubblica amministrazione, l’AI serve ad aumentare qualità e quantità dei servizi e ridurre i tempi dei procedimenti, restando strumentale al provvedimento: la persona rimane unica responsabile degli atti.

Giustizia: magistrato al centro, sperimentazioni autorizzate e formazione digitale

Nell’attività giudiziaria ogni decisione su interpretazione della legge, valutazione di fatti e prove e adozione dei provvedimenti resta riservata al magistrato. Fino alla piena attuazione dell’AI Act, sperimentazione e impiego dei sistemi AI negli uffici giudiziari ordinari richiedono autorizzazione del Ministero della giustizia, sentite le Autorità nazionali. Il Ministro promuove formazione digitale di magistrati e personale, anche sui rischi connessi all’AI. Una modifica al codice di procedura civile attribuisce al tribunale anche le cause sul funzionamento di un sistema di AI.

Sicurezza nazionale: esclusioni mirate e allineamento a privacy e cybersicurezza

Le attività svolte per sicurezza nazionale, cybersicurezza, difesa e forze di polizia sono escluse dall’ambito applicativo della legge, pur nel rispetto dei diritti fondamentali e dei principi democratici. Nel corso dell’iter viene soppresso l’obbligo, inizialmente previsto, di installare in Italia i server dei sistemi AI destinati all’uso pubblico; restano ferme le norme che richiedono resilienza e sicurezza dei sistemi.

Strategia nazionale e governance: ruolo di CITD, comitato di indirizzo e coordinamento inter-agenzia

La strategia nazionale per l’intelligenza artificiale è predisposta dalla struttura della Presidenza del Consiglio competente per innovazione e transizione digitale, d’intesa con le Autorità nazionali e con il coinvolgimento dei Ministeri competenti; viene approvata con cadenza almeno biennale dal Comitato interministeriale per la transizione digitale (CITD). Accanto alla strategia nasce un Comitato di coordinamento per indirizzare enti, organismi e fondazioni che operano nell’innovazione digitale e nell’AI, senza nuovi oneri e con possibilità di invitare le Autorità nazionali ai lavori.

Autorità nazionali: AgID per notifica e sviluppo, ACN per vigilanza e punto di contatto unico

Il DDL designa AgID e ACN come Autorità nazionali per l’intelligenza artificiale: AgID promuove innovazione e sviluppo e gestisce notifica, valutazione, accreditamento e monitoraggio dei soggetti che verificano la conformità; ACN esercita vigilanza, inclusa ispezione e sanzioni, e promuove l’AI nei profili di cybersicurezza. AgID è autorità di notifica e ACN è autorità di vigilanza del mercato e punto di contatto unico con le istituzioni UE ai sensi dell’AI Act. Banca d’Italia, CONSOB e IVASS restano autorità di vigilanza del mercato per i rispettivi settori, mentre si confermano competenze e poteri del Garante privacy e, come Coordinatore dei Servizi Digitali, dell’AGCOM. È istituito presso la Presidenza del Consiglio un Comitato di coordinamento tra AgID, ACN e Dipartimento per la trasformazione digitale; partecipano, quando necessario, Banca d’Italia, CONSOB e IVASS.

Appalti, dati strategici e preferenze per localizzazione e trasparenza dei modelli

Il testo indirizza le piattaforme di e-procurement delle amministrazioni pubbliche a privilegiare, nella scelta dei fornitori, soluzioni che garantiscano localizzazione ed elaborazione dei dati strategici in data center situati in Italia, con piani di disaster recovery e business continuity anch’essi nel territorio nazionale, oltre a elevati standard di sicurezza e trasparenza nell’addestramento dei modelli, nel rispetto della concorrenza e dei principi di non discriminazione e proporzionalità.

Conto e carta

difficile da pignorare

 

Investimenti e politica industriale: fino a 1 miliardo su AI, cybersecurity e calcolo quantistico

In linea con la strategia nazionale, il DDL autorizza investimenti fino a 1 miliardo di euro a sostegno di PMI e imprese innovative con sede operativa in Italia nei settori AI, cybersicurezza e tecnologie abilitanti, incluse tecnologie quantistiche e telecomunicazioni (5G, evoluzioni, edge computing, architetture aperte software, Web3, elaborazione del segnale). Gli investimenti arrivano tramite il Fondo di sostegno al venture capital e fondi dedicati gestiti dalla SGR indicata dalla legge; Presidenza del Consiglio (innovazione) e ACN partecipano agli organi di governo dei fondi senza compensi o indennità. La normativa attuativa del 2019 viene aggiornata per includere anche imprese non PMI.

Affari esteri e servizi consolari: progetti pilota con finanziamento dedicato

Per testare applicazioni concrete, sono stanziati 300.000 euro per ciascuno degli anni 2025 e 2026 a favore di progetti sperimentali di AI per i servizi del Ministero degli affari esteri e della cooperazione internazionale rivolti a cittadini e imprese, coperti mediante riduzione del fondo speciale di parte corrente.

Deleghe su dati, algoritmi e allineamento all’AI Act: dodici mesi per i decreti

Il Governo riceve una delega di 12 mesi per definire una disciplina organica sull’utilizzo di dati, algoritmi e metodi matematici per l’addestramento dei sistemi di AI, senza introdurre obblighi ulteriori negli ambiti già soggetti all’AI Act. I decreti dovranno prevedere tutele risarcitorie e inibitorie, un apparato sanzionatorio e l’attribuzione alle sezioni specializzate in materia d’impresa delle relative controversie. Una seconda delega di 12 mesi serve ad adeguare la normativa nazionale al regolamento europeo, valorizzando i poteri sanzionatori delle Autorità nazionali e prevedendo alfabetizzazione e formazione su AI nei percorsi professionali e scolastici.

Cosa cambia per imprese e pubbliche amministrazioni

Per le imprese l’impatto più immediato riguarda conformità all’AI Act, trasparenza sull’uso dei modelli, sicurezza e qualità dei dati, con opportunità di finanziamento per chi innova in AI, cybersecurity e quantistico. Per le PA l’AI diventa strumento per accelerare procedimenti e migliorare i servizi, fermo il principio di responsabilità umana e con preferenze di procurement a tutela dei dati strategici nazionali. In sanità prende forma una piattaforma nazionale a supporto clinico e territoriale, regolata da pareri preventivi e controlli di sicurezza. Nei tribunali l’AI si sperimenta con autorizzazione ministeriale e formazione dedicata agli operatori. E nel lavoro l’AI richiede informativa obbligatoria ai dipendenti e garanzie su dignità e privacy, mentre l’Osservatorio accompagnerà transizione e upskilling.

Una legge-ponte tra opportunità e garanzie

Il DDL 1146-B si pone come legge-ponte nazionale verso l’attuazione dell’AI Act: abilita sperimentazioni controllate, consolida governance e vigilanza, apre a capitale paziente sull’ecosistema e definisce binari per sanità, lavoro, giustizia e PA. Il messaggio è duplice: accelerare dove l’AI porta valore e presidiare dove tocca diritti, democrazia e sicurezza.

Leggi il documento integrale

Investi nel futuro

scopri le aste immobiliari

 



Source link

***** l’articolo pubblicato è ritenuto affidabile e di qualità*****

Visita il sito e gli articoli pubblicati cliccando sul seguente link

Source link

Vuoi bloccare la procedura esecutiva?

richiedi il saldo e stralcio