Il Ministero dell’Istruzione e del Merito ha pubblicato le prime linee guida nazionali per l’introduzione dell’intelligenza artificiale nelle scuole italiane. Le linee guida, rilasciate in un momento di rapida evoluzione tecnologica e rivolte a dirigenti, docenti, studenti e famiglie, si propongono come un documento strutturato per integrare efficacemente l’IA nella didattica e nell’organizzazione scolastica. L’obiettivo è quello di fornire a tutti gli attori del comparto scolastico indicazioni chiare per governare con consapevolezza e responsabilità l’imponente processo innovativo in atto, ponendo sempre al centro i diritti fondamentali delle persone e degli studenti.
Le Linee guida sono in allegato e sono parte integrante del Decreto Ministeriale n. 166 del 09/08/2025. Il decreto disciplina l’implementazione all’interno della piattaforma Unica di un nuovo servizio digitale, uno strumento di accompagnamento per le scuole con l’obiettivo di incentivare un uso corretto e antropocentrico dell’IA in ambito scolastico.
Attraverso il Servizio digitale saranno resi disponibili nell’area pubblica contenuti e documenti informativi (tra i quali proprio le Linee Guida in materia di Intelligenza Artificiale) e, nell’area riservata a dirigenti scolastici/coordinatori e personale amministrativo delle scuole, una mappa delle sperimentazioni avviate dalle Istituzioni Scolastiche.
Il quadro normativo e strategico
Le linee guida si inseriscono in un contesto complesso, articolato su molteplici livelli. In prima battuta, si allineano esplicitamente con l’AI Act e con il Regolamento Generale sulla Protezione dei Dati (GDPR). La piena applicazione di entrambe le normative è considerata infatti un requisito imprescindibile per qualsiasi iniziativa legata all’introduzione dell’intelligenza artificiale nelle istituzioni scolastiche europee.
Più in dettaglio, per quanto riguarda l’Italia il documento fa riferimento in particolare alla Strategia nazionale per l’intelligenza artificiale 2024-2026 dell’AgID e del Dipartimento per la trasformazione digitale e al disegno di legge nazionale sull’IA. Inoltre, le linee guida sono strettamente connesse al Piano Nazionale Scuola Digitale (PNSD) e all’uso dei fondi del Piano Nazionale di Ripresa e Resilienza (PNRR) per il finanziamento di progetti specifici, come la sperimentazione biennale in 15 classi in quattro regioni italiane e la creazione di campus innovativi. In questo contesto, l’intervento ministeriale si pone non solo come un atto di regolamentazione, ma come una mossa strategica per sostenere l’innovazione fin dai vertici, attraverso un approccio istituzionale che mira a fornire una risposta ormai necessaria alla “rivoluzione silenziosa” già in corso nelle aule del nostro Paese.
L’IA generativa è già entrata nelle aule e nella vita quotidiana di studenti e docenti. L’innovazione tecnologica non chiede né attende il permesso e proprio questa consapevolezza ha spinto le istituzioni a incanalare, attraverso le linee guida del MIM, un fenomeno spontaneo in un percorso controllato e responsabile. In questa prospettiva, la spinta normativa del documento non deve essere intesa solo come proattiva, ma anche reattiva, parte di un’iniziativa culturale che non imponga rigidamente il cambiamento, ma lo promuova e lo sostenga con un approccio orientato al pensiero critico, alla consapevolezza, all’educazione e alla sensibilizzazione di tutti i soggetti interessati.
Un approccio antropocentrico all’innovazione
Il cuore della strategia ministeriale risiede nell’approccio antropocentrico: l’IA deve essere uno strumento al servizio della crescita umana, non fine a sé stesso.
“La tecnologia deve supportare il pieno sviluppo della persona, garantendo il ruolo centrale e insostituibile dell’uomo nel governo dei sistemi di IA”
sottolineano le linee guida.
Un principio che si traduce in requisiti concreti: ogni decisione importante che riguarda gli studenti deve prevedere una supervisione umana qualificata, con docenti e personale formato che possano controllare, comprendere e, se necessario, annullare le decisioni algoritmiche.
Accanto a questo pilastro fondante, le linee guida individuano altri principi fondamentali che dovrebbero orientare l’introduzione dell’IA in ogni istituzione scolastica.
Il modello proposto dal Ministero è strutturato su quattro elementi essenziali:
1) I principi di riferimento: centralità della persona, equità, innovazione etica, sostenibilità, tutela dei diritti e sicurezza dei sistemi.
- Equità: l’IA non deve creare nuove disuguaglianze o peggiorare quelle esistenti. È essenziale prestare la massima attenzione ai bias o ai pregiudizi che possono nascondersi negli algoritmi, spesso a causa di dati di addestramento non rappresentativi. Questo principio sottolinea la necessità di garantire pari opportunità a tutti gli studenti, con un’attenzione particolare a quelli più fragili.
- Innovazione etica e responsabile: l’IA deve supportare la crescita e l’apprendimento, non sostituire l’impegno umano o il pensiero critico. Questa tensione tra spinta all’innovazione e rigorosa cautela etica è al centro del documento. L’automazione di compiti ripetitivi ha lo scopo di liberare tempo per attività più complesse e umane, ma al tempo stesso si riconosce il rischio che una dipendenza eccessiva dalla macchina possa soffocare la creatività e la capacità di “provare e sbagliare”, elementi determinanti per lo sviluppo umano.
- Sostenibilità: l’impatto dell’IA va valutato a 360 gradi, includendo gli aspetti sociali, ambientali ed economici.
- Sicurezza: i sistemi devono essere robusti, affidabili e protetti da attacchi informatici.
2) Requisiti di base etici, tecnici e normativi che garantiscono trasparenza, robustezza e conformità alle normative
- Certificazioni e conformità dei fornitori: la selezione dei fornitori deve basarsi su standard di sicurezza internazionali (es. ISO/IEC 27001) e certificazioni nazionali (es. AgID per servizi SaaS), verificando trasparenza e tracciabilità.
- Gestione Responsabile dei Dati: implementazione di misure tecniche e organizzative adeguate alla sicurezza, riservatezza e integrità dei dati. È raccomandato l’utilizzo di sistemi di IA all’interno di ambienti controllati e la scelta di fornitori che aderiscono al Data Privacy Framework.
- Gestione del diritto di non partecipazione: studenti e famiglie devono poter decidere consapevolmente se i propri dati personali possono essere usati per l’addestramento dell’IA, senza limitazioni nell’accesso alle tecnologie. Per i LLM, sono necessari accorgimenti tecnici e organizzativi che evitino il trattamento di dati personali riconducibili agli studenti, impedendo la conservazione dei prompt, la profilazione o il tracciamento. In caso di trattamento di dati di minori, è necessaria una comunicazione preventiva e chiara con i genitori.
- Conformità ai principi del GDPR: le Istituzioni scolastiche agiscono come “titolari del trattamento” quando implementano sistemi di IA che trattano dati personali, ponendo particolare attenzione alla “vulnerabilità” dei minori.
- 3) Un framework di implementazione con strumenti operativi concreti. L’implementazione deve seguire un approccio metodologico in cinque fasi: definizione del progetto con analisi dei bisogni; pianificazione dettagliata con gestione dei rischi; adozione graduale partendo da progetti pilota; monitoraggio continuo degli output e degli impatti; conclusione con valutazione dei risultati e condivisione delle buone pratiche.
- 4) Un sistema di comunicazione e governance, in cui sarà centrale la condivisione di esperienze e il monitoraggio delle iniziative attraverso la piattaforma Unica.
Per tradurre questi principi in azioni concrete, le linee guida introducono la Valutazione d’Impatto sui Diritti Fondamentali (FRIA). Si tratta di un’analisi specifica e preventiva per comprendere come un sistema IA potrebbe, anche involontariamente, ledere i diritti degli studenti, come la privacy, la non discriminazione e l’equità. Questa valutazione agisce come una sorta di “check-up preventivo” per garantire che la tutela dei diritti sia una priorità assoluta in ogni fase dell’adozione.
Il ruolo della scuola: da semplice utente a “deployer” responsabile
Una delle novità più significative introdotte dalle linee guida del MIM è la classificazione della scuola non come un semplice utente privato, ma come un “deployer”. Secondo la definizione dell’AI Act, un deployer è un soggetto che implementa e utilizza un sistema di IA sotto la propria autorità, assumendosene la responsabilità.
Questa trasformazione del ruolo istituzionale ha un’implicazione profonda: la scuola non può limitarsi ad acquistare e installare un software, ma deve agire come un soggetto giuridico e tecnico consapevole, con obblighi specifici di gestione del rischio che vanno ben oltre il semplice uso. Questo richiede lo sviluppo di nuove competenze legali e tecniche all’interno del personale scolastico e impone una sfida senza precedenti sul piano della formazione. La classificazione si estende anche alle relazioni con i fornitori, poiché la scuola deve garantire che questi rispettino i propri obblighi di trasparenza, qualità dei dati e monitoraggio continuo attraverso contratti specifici.
Le linee guida adottano l’approccio basato sul rischio dell’AI Act, che classifica i sistemi in base al loro potenziale impatto:
- Rischio nullo o minimo: non sono previsti requisiti specifici. Un esempio è un filtro anti-spam nella mail della scuola.
- Rischio limitato: l’obbligo principale è la trasparenza. L’utente deve essere chiaramente informato che sta interagendo con un’intelligenza artificiale, come nel caso di un chatbot informativo sul sito della scuola.
- Rischio alto: In questo caso, gli obblighi per il deployer (la scuola) diventano stringenti e rigorosi
I paletti etici e i divieti
Le linee guida stabiliscono confini netti su cosa l’IA non può fare a scuola. È vietato l’uso di tecniche subliminali o manipolative, sistemi di social scoring che classifichino le persone con punteggi, e soprattutto – elemento distintivo per il contesto educativo – è proibito il riconoscimento delle emozioni degli studenti attraverso sistemi di IA, salvo rarissime eccezioni legate alla sicurezza fisica o motivi medici. Un divieto che tutela la sfera emotiva e psicologica dei giovani da invasioni tecnologiche potenzialmente dannose.
Inoltre, le linee guida, in coerenza con l’AI Act, specificano quali tipologie di sistemi IA sono considerate ad alto rischio nel settore educativo. Si tratta di sistemi che hanno un impatto significativo sul percorso e sulla vita degli studenti, tra cui:
- Software per decidere l’ammissione a una scuola o a un corso.
- Sistemi per la valutazione dell’apprendimento che incidono su voti e giudizi.
- Sistemi per assegnare gli studenti a percorsi formativi specifici.
- Sistemi utilizzati per monitorare gli studenti durante gli esami per scovare imbrogli.
- Sistemi di profilazione che creano profili dettagliati per predire comportamenti o risultati.
Gli obblighi rigorosi per la scuola-deployer
L’implementazione di un sistema ad alto rischio comporta una procedura rigorosa e complessa per la scuola. Il documento del Ministero sottolinea tre obblighi fondamentali:
- Uso conforme: il software deve essere utilizzato esattamente secondo le istruzioni fornite dal produttore, senza usi creativi o non previsti.
- Supervisione umana qualificata: si tratta di un punto cardine, al quale la tecnologia non è in grado di rispondere in maniera sufficiente. Come precedentemente accennato, è obbligatorio che ci sia personale formato (docenti o altro personale) in grado di controllare il lavoro dell’IA, comprenderne i risultati, intervenire se necessario e, soprattutto, annullare le decisioni errate o inopportune dell’algoritmo. Questa scelta è una chiara implicazione strategica, che non delega il giudizio di merito all’algoritmo, ma rafforza il ruolo del docente come “architetto dell’apprendimento”.
- Valutazione d’impatto integrata (DPA + FRIA): la protezione dei dati personali, specialmente quelli dei minori, rappresenta una priorità assoluta. Per questo, per i sistemi ad alto rischio la scuola deve condurre un’analisi di impatto congiunta, unendo la Valutazione sulla Protezione dei Dati (DPA) con la Valutazione sui Diritti Fondamentali (FRIA). Questa unione non è una mera formalità, ma un potente meccanismo di governance interna che costringe l’istituzione a riflettere in modo olistico sui rischi legali, etici e sociali di una tecnologia prima della sua implementazione, per identificarli e per definire le misure per mitigarli. La protezione dei dati personali, specialmente quelli dei minori, rappresenta una priorità assoluta. Se, nonostante le misure adottate, persistono rischi elevati, la scuola è tenuta a consultare il Garante Privacy prima di procedere. Quando possibile, si raccomanda l’uso di dati sintetici o anonimi invece di dati personali reali, applicando i principi di privacy by design e by default.
Applicazioni concrete per ogni attore scolastico
Le linee guida delineano applicazioni specifiche per ciascuna figura scolastica.
I dirigenti possono utilizzare l’IA per monitorare la coerenza tra documenti programmatici (RAV, PTOF, Piano di Miglioramento), ottimizzare gli orari e migliorare la comunicazione personalizzata.
Il personale amministrativo può beneficiare di chatbot per gestire richieste frequenti, automatizzare comunicazioni periodiche e ottimizzare la gestione dell’inventario.
Per i docenti, l’IA offre strumenti per personalizzare i materiali didattici secondo le esigenze di ogni studente, creare risorse interattive come simulazioni e quiz adattivi, supportare la redazione di rubriche valutative e facilitare il tutoraggio attraverso domande stimolanti che promuovono il pensiero critico. Particolare attenzione viene posta all’integrazione con i Piani Educativi Individualizzati (PEI) e i Piani Didattici Personalizzati (PDP) per studenti con bisogni speciali.
Gli studenti possono sfruttare l’IA per approfondimenti in tempo reale, supporto multilingue, feedback immediati sui propri errori e percorsi di apprendimento personalizzati. Tuttavia, le linee guida sottolineano l’importanza di sviluppare negli studenti una “profonda consapevolezza delle potenzialità e dei limiti dell’IA”, educandoli a riconoscere le cosiddette “allucinazioni” degli algoritmi – cioè quando l’IA produce informazioni errate presentandole come vere.
Formazione e consapevolezza critica
Un elemento centrale, quindi, è la formazione continua di tutto il personale scolastico e degli studenti. Non si tratta solo di acquisire competenze tecniche, ma di sviluppare una comprensione critica dell’IA, dei suoi bias potenziali, dei rischi di discriminazione algoritmica e dell’importanza di mantenere sempre un controllo umano significativo. Le scuole devono garantire trasparenza totale: chi interagisce con un sistema di IA deve sempre saperlo e comprendere, almeno a grandi linee, come funziona.
Il Ministero metterà a disposizione sulla piattaforma Unica strumenti interattivi per consultare le linee guida, verificare gli adempimenti normativi, condividere progetti e buone pratiche tra scuole. Un sistema di monitoraggio centrale permetterà di mappare le sperimentazioni sul territorio nazionale e valutare l’efficacia delle iniziative.
Una sfida di sistema
L’introduzione dell’IA nella scuola italiana è una sfida che richiede il coinvolgimento sinergico di tutti gli attori: dirigenti, docenti, personale amministrativo, studenti, famiglie e organi collegiali. Le linee guida enfatizzano l’importanza di un approccio partecipativo, dove le decisioni sull’adozione di sistemi di IA vengano prese in modo trasparente e condiviso, attraverso consultazioni appropriate con le diverse componenti della comunità scolastica.
Il documento riconosce che l’IA può migliorare significativamente l’inclusione scolastica, personalizzare l’apprendimento e ottimizzare i processi amministrativi. Ma avverte anche sui rischi: dalla protezione dei dati alla discriminazione algoritmica, dalla perdita dell’interazione umana alla dipendenza tecnologica. Per questo propone strategie di mitigazione specifiche, dalla progettazione etica degli algoritmi alla promozione di sistemi ibridi che bilancino automazione e intervento umano.
Le linee guida rappresentano solo l’inizio di un percorso che vedrà aggiornamenti periodici basati sulle esperienze raccolte sul campo. Il Ministero prevede decreti attuativi per chiarire ulteriormente le modalità operative e le finalità specifiche per cui le scuole potranno utilizzare l’IA nel trattamento dei dati personali. L’obiettivo dichiarato è costruire “una scuola più inclusiva, equa e preparata ad affrontare le sfide del futuro”, dove l’intelligenza artificiale sia davvero al servizio della crescita umana e culturale delle nuove generazioni.
***** l’articolo pubblicato è ritenuto affidabile e di qualità*****
Visita il sito e gli articoli pubblicati cliccando sul seguente link