Vuoi acquistare in asta

Consulenza gratuita

 

Legge AI, il Governo vuole il potere senza controllo


Il Parlamento ha appena approvato la prima legge organica sull’intelligenza artificiale in Italia. Una tappa che avrebbe dovuto segnare l’ingresso del nostro Paese in una nuova era di regolazione, capace di bilanciare innovazione tecnologica, sviluppo economico e tutela dei diritti fondamentali.

Assistenza e consulenza

per acquisto in asta

 

Segna, invece, l’inizio di una deriva securitaria?
Secondo la Rete per i Diritti Umani Digitali – coalizione che riunisce organizzazioni come Amnesty International Italia, The Good Lobby, Hermes Center, Privacy Network, Period Think Tank e Strali – siamo di fronte a una norma debole, sbilanciata sul controllo governativo e con enormi lacune sul piano delle garanzie democratiche.

Governance centralizzata al posto dell’indipendenza

Il primo elemento critico riguarda la governance. L’Unione europea ha indicato chiaramente la necessità di istituire autorità indipendenti per la supervisione dell’IA. L’Italia ha fatto la scelta opposta: consegnare il controllo ad agenzie governative, i cui vertici sono direttamente nominati dall’esecutivo.
AgID e Agenzia per la Cybersicurezza Nazionale diventeranno i poli di comando. Due strutture che già rispondono al Governo e che, in questo nuovo assetto, saranno chiamate a stabilire priorità, regole e allocazione delle risorse.
La conseguenza è un sistema permeabile alle influenze politiche, in cui la fiducia dei cittadini nei sistemi di intelligenza artificiale rischia di sgretolarsi. Come denuncia la Rete per i Diritti Umani Digitali: “Con due agenzie governative al posto dell’autorità indipendente non possiamo che aspettarci indebite influenze sui finanziamenti e sugli indirizzi politici. Non si costruisce un ecosistema affidabile se chi controlla le tecnologie è anche parte in causa delle scelte di indirizzo politico. La mancanza di indipendenza non è un dettaglio tecnico, ma un vulnus democratico”.

Il vuoto normativo sul diritto alla spiegazione

Un secondo vuoto riguarda la tutela delle persone che subiscono decisioni automatizzate. La legge italiana non definisce le regole necessarie a rendere effettivo il “diritto alla spiegazione”, pur previsto nell’AI Act tra i redress mechanisms, ossia la possibilità di chiedere chiarimenti su come un algoritmo ha preso una decisione che incide sui diritti fondamentali di un individuo, senza costringere la persona a ricorrere a un giudice.
Parliamo di ambiti cruciali: accesso ai servizi sanitari, valutazioni scolastiche o universitarie, selezione del personale, concessione di mutui o prestiti, misure di sorveglianza. In tutti questi casi, l’assenza di trasparenza apre la strada a discriminazioni silenziose, arbitrarie e difficilmente contestabili.
Il fatto che il Parlamento abbia respinto la proposta avanzata da PD, AVS, 5stelle e Gruppo Misto di attribuire al Garante Privacy il compito di tutelare questo diritto rappresenta un arretramento netto rispetto alle aspettative europee. In Italia, di fatto, chi subirà un danno da una decisione algoritmica non avrà strumenti diversi da quelli giurisdizionali per pretendere spiegazioni.

Riconoscimento facciale: sorveglianza senza regole

Il capitolo più inquietante riguarda il riconoscimento facciale e le tecnologie biometriche. La legge non prevede alcuna disciplina specifica, lasciando al Governo l’ultima parola sulla regolazione di strumenti che incidono direttamente sulla libertà individuale.
Si apre così la strada a progetti di videosorveglianza di massa: dagli stadi alle piazze, dalle stazioni ai supermercati, fino a scuole e ospedali. Nessun passaggio parlamentare, nessun limite normativo, nessun contrappeso democratico.

Body cam e identificazione biometrica incontrollata

Questa scelta si intreccia con altre misure già approvate, come la legge che ha convertito il DL Sicurezza introducendo l’uso delle body cam per le forze di polizia, senza però richiamare espressamente l’opinione del Garante per la protezione dei dati personali in merito alle modalità di conservazione dei dati e alle finalità d’uso dei dispositivi.

Contabilità

Buste paga

 

Secondo la Rete per i Diritti Umani Digitali, in assenza di una norma che sancisca queste tutele, e di codici identificativi univoci per gli agenti in servizio, ogni persona ripresa potrebbe correre il rischio di essere analizzata, identificata e schedata, anche a distanza di tempo, se ritenuta “rilevante” per un’indagine. Il risultato è un modello di controllo capillare, che espone la cittadinanza al rischio di sorveglianza generalizzata. Secondo la Rete per i Diritti Umani Digitali, la legge sull’intelligenza artificiale approvata oggi dal Parlamento conferisce un potere eccessivo al Governo, senza adeguati contrappesi democratici: “temiamo importanti risvolti securitari, che ci aspettiamo già nei prossimi mesi, a partire proprio dalla sorveglianza biometrica”.

Trasparenza negata sui sistemi di controllo

La legge ha respinto tutti gli emendamenti che miravano a introdurre obblighi di trasparenza: report periodici sull’uso delle tecnologie biometriche, pubblicazione dei tassi di errore nei sistemi di riconoscimento, codici identificativi per gli operatori.
In assenza di questi strumenti, i cittadini non avranno modo di sapere se e come vengono sorvegliati, né di verificare l’affidabilità degli strumenti utilizzati.

La mancanza di trasparenza non solo compromette la fiducia, ma aumenta il rischio di abusi. In un settore complesso e opaco come quello dell’intelligenza artificiale, la trasparenza dovrebbe essere la prima garanzia, non l’ultima concessione.

Una legge securitaria che sacrifica i diritti

Il filo conduttore della legge è chiaro: privilegiare il controllo governativo e le esigenze di sicurezza a discapito della tutela dei cittadini. Si tratta di una scelta politica che sacrifica la prospettiva di un’intelligenza artificiale al servizio della collettività, piegandola invece a logiche di sorveglianza e gestione del potere.

La Rete per i Diritti Umani Digitali parla apertamente di “deriva securitaria”, sottolineando come la legge non solo manchi di contenuti sostanziali, ma ponga le basi per decreti futuri ancora più restrittivi delle libertà.

Un’occasione mancata per i diritti digitali

La prima legge italiana sull’intelligenza artificiale avrebbe potuto rappresentare l’inizio di una stagione di diritti digitali, trasparenza e fiducia. Invece segna l’avvio di un percorso diverso: quello di una società più sorvegliata, meno libera e meno tutelata.

L’Italia ha scelto la via più semplice, quella del controllo centralizzato, rinunciando a costruire un ecosistema fondato su indipendenza, trasparenza e diritti.
La tecnologia, se regolata male, non è mai neutra: diventa strumento di potere. E la legge appena approvata rischia di consegnare al Governo un’arma formidabile, senza i contrappesi democratici necessari per impedirne gli abusi.



Source link

Finanziamenti personali e aziendali

Prestiti immediati

 

***** l’articolo pubblicato è ritenuto affidabile e di qualità*****

Visita il sito e gli articoli pubblicati cliccando sul seguente link

Source link

Finanziamenti personali e aziendali

Prestiti immediati