Linee guida IA 1.0 – 2025

Quadro di riferimento per l’uso dell’intelligenza artificiale a scuola

Il Ministero dell’Istruzione e del Merito ha pubblicato il 29 agosto 2025 le prime “Linee guida per l’introduzione dell’Intelligenza Artificiale nelle istituzioni scolastiche”[1] (DM n. 166 del 9 agosto 2025), segnando l’avvio della transizione digitale della scuola italiana. Questa versione 1.0, pur rappresentando un primo passo, parziale e talvolta generico, riveste grande significato strategico.

In linea con la Raccomandazione Unesco

Rivolto principalmente a dirigenti e docenti, il documento non fornisce ancora prescrizioni operative dettagliate, ma delinea i confini di un campo d’azione: uno spazio regolato che rimane aperto alla sperimentazione e alla condivisione di buone pratiche. È particolarmente significativo che queste linee siano tra le prime al mondo elaborate dal sistema scolastico per il sistema stesso, recependo pienamente la Raccomandazione UNESCO che invita ogni Stato a promuovere programmi educativi sull’etica dell’IA a tutti i livelli di istruzione. Il documento d’altronde si inserisce pienamente nel contesto normativo internazionale, in rapida evoluzione. Recepisce l’AI Act europeo[2], che classifica come “alto rischio” i sistemi di intelligenza artificiale impattanti sull’accesso ai percorsi formativi, sulla valutazione degli studenti o sulla sorveglianza durante gli esami, imponendo obblighi di trasparenza e supervisione umana. Fa, quindi, riferimento alla Raccomandazione UNESCO del 2021[3], che stabilisce principi etici condivisi per uno sviluppo dell’IA al servizio dell’umanità, e alla Convenzione del Consiglio d’Europa del 2024[4], primo trattato internazionale vincolante che introduce un approccio basato sul rischio e sulla trasparenza lungo tutta la “filiera”.

Principi cardine: la centralità dell’uomo

Le Linee guida si fondano su quattro assi centrali, in coerenza con i framework Unesco[5]. Già nelle prime pagine del documento si afferma che l’IA deve essere adottata con un approccio antropocentrico, ponendo la persona al centro delle innovazioni tecnologiche. In ambito educativo ciò significa che il pieno sviluppo di ogni studente e il benessere di tutti gli attori (studenti, docenti, personale) costituiscono il criterio guida nelle scelte di implementazione dell’IA. Le Linee guida sottolineano il ruolo centrale e insostituibile dell’uomo nel governo dei sistemi di IA, soprattutto quando le decisioni automatizzate possono incidere su opportunità formative o risultati educativi degli studenti. Questa impostazione si traduce in due esigenze: da un lato, mantenere sempre un controllo umano sui processi decisionali dell’IA in contesto scolastico; dall’altro, assicurare che l’IA sia strumentale al potenziamento dell’esperienza formativa individuale, senza mai sostituire la relazione educativa e l’autonomia di studenti e insegnanti.

In tal senso, ad esempio, le Linee guida affermano che l’IA deve supportare la crescita personale e l’acquisizione di competenze autentiche, promuovendo il pensiero critico e creativo senza sostituirsi all’impegno e alla riflessione individuale. La centralità della persona si collega dunque strettamente al principio di intervento e sorveglianza umana: il dirigente scolastico e i docenti devono vigilare sull’uso dell’IA, identificando tempestivamente eventuali errori o effetti indesiderati e intervenendo per tutelare gli studenti. Questo garantisce che la tecnologia resti un mezzo, e non il fine, dell’azione educativa.

Tutela dei dati personali e della privacy

Un secondo caposaldo delle Linee guida è la tutela dei dati personali e, più in generale, dei diritti fondamentali alla privacy e alla non discriminazione. Nel documento si ribadisce con forza che l’introduzione dell’IA a scuola deve garantire il pieno rispetto della normativa su protezione dei dati personali, in primis il Regolamento UE 2016/679 (GDPR) e il Codice Privacy italiano. Viene richiamato espressamente il principio secondo cui il diritto alla protezione dei dati deve essere garantito durante l’intero ciclo di vita del sistema di IA, in linea con i principi di privacy by design e privacy by default. Ciò implica che sin dalla progettazione gli strumenti di IA destinati alle scuole debbano adottare impostazioni che minimizzino la raccolta di dati personali (solo quelli necessari per finalità didattiche esplicite e legittime) e che prevedano configurazioni predefinite orientate alla massima tutela della privacy. Le Linee guida insistono, inoltre, su misure tecniche quali l’anonimizzazione dei dati, l’uso di identificatori aggregati e la limitazione dei dati identificativi, per ridurre al minimo i rischi di violazione della riservatezza. Un aspetto innovativo è l’enfasi sul diritto di non partecipazione degli studenti: le scuole devono garantire che ciascuno studente (e le famiglie) possano scegliere di non contribuire con i propri dati all’addestramento di sistemi di IA, senza che ciò comporti discriminazioni o limitazioni nel percorso formativo. Questo elemento, inedito ma cruciale, tutela la libertà individuale nell’ecosistema digitale scolastico. Complessivamente, la protezione dei dati viene trattata non solo come un obbligo legale, ma come un principio etico fondamentale: il documento la annovera infatti tra le libertà fondamentali da salvaguardare.

Equità e inclusione

Un terzo fondamento è il richiamo costante all’equità. Le Linee guida affermano che l’IA, specialmente nei contesti educativi, deve promuovere l’equità, garantendo che tutti abbiano pari accesso alle opportunità e ai benefici derivanti dalla tecnologia. Questo principio implica diverse azioni: innanzitutto progettare e utilizzare sistemi di IA imparziali e inclusivi, evitando che barriere tecnologiche possano escludere alcuni studenti (ad esempio, studenti con disabilità o provenienti da contesti socio-economici svantaggiati). Inoltre, significa monitorare durante l’intero ciclo di vita dei sistemi l’eventuale insorgere di pregiudizi o distorsioni (bias) nei dati o negli algoritmi, così da correggerli e prevenire trattamenti ingiusti o discriminatori. Il documento richiama esplicitamente gli Orientamenti etici europei per un’IA affidabile e altre fonti comunitarie, consolidando l’idea che nessuno deve essere lasciato indietro nell’innovazione digitale. L’equità viene anche intesa come parità di accesso agli strumenti: ogni utente (studente o docente) deve poter fruire degli strumenti di IA in modo paritario e senza ostacoli. Ciò richiede ad esempio attenzione all’accessibilità delle piattaforme (interfacce utilizzabili da chi ha disabilità sensoriali o cognitive) e azioni per colmare il digital divide (formazione per chi ha meno competenze digitali). Solo con un uso equo e responsabile dell’IA – si legge nel testo – è possibile creare un ambiente educativo in cui ciascun individuo possa esprimere il proprio potenziale indipendentemente dalle caratteristiche personali o dal contesto di provenienza.

Innovazione etica e responsabile

Il documento del MIM sposa appieno il concetto di innovazione responsabile, delineando una visione in cui l’adozione dell’IA avviene entro confini etici ben definiti. Viene esplicitato che l’IA deve promuovere un’innovazione etica e responsabile, utilizzata in modo trasparente e consapevole, e conforme ai valori educativi della scuola. In pratica, ciò si traduce in diverse indicazioni operative: la trasparenza implica che le decisioni algoritmiche siano spiegabili e comprensibili per utenti e responsabili (ad esempio, se una piattaforma di tutoraggio adatta gli esercizi allo studente, i criteri di adattamento devono essere noti al docente). La consapevolezza richiama la necessità di formazione e informazione: docenti e studenti vanno educati a capire limiti e potenzialità dell’IA, inclusi fenomeni come le allucinazioni[6] dei modelli generativi, per evitarne un uso acritico. Inoltre, le Linee guida affermano che l’IA deve essere introdotta senza sostituire le pratiche educative fondamentali e i valori pedagogici consolidati. Ad esempio, strumenti di automazione non devono indurre docenti e studenti a ridurre l’impegno o la creatività; al contrario, dovrebbero liberare tempo da compiti ripetitivi per dedicarlo ad attività a più alto valore aggiunto formativo. Viene anche affrontato il tema della sostenibilità (anch’essa citata come principio di riferimento): l’innovazione deve garantire un equilibrio tra dimensione sociale, economica e ambientale. Ciò significa preferire tecnologie a basso impatto ecologico e soluzioni economicamente sostenibili per le scuole, oltre che socialmente accettabili. In sostanza, l’innovazione responsabile nelle Linee guida è un’innovazione governata dalla riflessione etica: il Ministero invita le scuole a innovare, ma con la giusta consapevolezza, assicurando sempre la finalità educativa e il rispetto dei valori costituzionali. Questo equilibrio tra slancio innovativo e prudenza etica costituisce uno dei maggiori punti di forza del documento, che appare pienamente allineato sia alle Raccomandazioni europee sia al richiamo internazionale verso uno sviluppo dell’IA centrato sull’uomo e i suoi diritti.

Ruoli e responsabilità del dirigente

Il dirigente scolastico viene indicato dalle Linee guida come la figura-chiave per guidare la scuola nel percorso di transizione digitale centrato sull’IA. In primo luogo, al dirigente spetta una funzione di leadership strategica: egli deve favorire l’innesco di processi innovativi, orientando la comunità scolastica verso l’uso consapevole dell’IA e adattando l’istituzione alle sfide della società digitale. Le Linee guida sottolineano che il dirigente può avvalersi dell’IA per rafforzare la propria leadership organizzativa, ad esempio ottimizzando i processi routinari e ottenendo analisi più efficaci a supporto delle decisioni. Ma, soprattutto, il dirigente scolastico viene investito di una responsabilità cruciale di governance e sorveglianza: è lui il garante ultimo che l’adozione dell’IA avvenga nel rispetto delle norme e dei principi etici. In pratica, dunque, il dirigente deve assicurare che siano effettuate le dovute valutazioni d’impatto privacy, che i fornitori di soluzioni IA scelti dalla scuola rispettino i requisiti di sicurezza e conformità, che i docenti vengano formati e seguano le linee di condotta, e che vi sia un controllo umano sulle decisioni automatizzate importanti.

Compiti e responsabilità dei docenti

Le Linee guida ribadiscono che gli insegnanti rivestono un ruolo centrale nel guidare e garantire l’adozione di pratiche sicure ed etiche in ambienti di apprendimento arricchiti dall’IA. Questo si traduce in una duplice responsabilità: da un lato, i docenti devono utilizzare essi stessi gli strumenti di IA in maniera ponderata e conforme alle linee guida; dall’altro, fungono da guide educative per gli studenti, insegnando loro come interagire con l’IA in modo critico e produttivo.

Spetta al docente la progettazione didattica integrata con l’IA: valutare se e quali strumenti di IA adottare nella propria disciplina per migliorare l’apprendimento. Ad esempio, potrebbe decidere di usare una piattaforma di esercizi adattivi in matematica, oppure un generatore di quiz automatici, o ancora un sistema di tutor virtuale per le lingue. In tal caso, il docente deve selezionare lo strumento in base alla qualità e affidabilità e integrarlo nella progettazione annuale, tenendo conto degli obiettivi formativi e delle esigenze della classe. L’IA offre supporto mirato alla didattica e permette percorsi personalizzati, ma sono sempre i docenti a garantire che questi percorsi siano coerenti con il curriculum e i bisogni educativi.

Docente garante dell’uso etico dell’IA e mediatore

L’insegnante deve vigilare affinché gli studenti usino gli strumenti di IA in modo corretto. Ad esempio, se si introduce un assistente di scrittura basato su IA per migliorare le abilità di composizione in italiano, il docente dovrà spiegare agli studenti i limiti dello strumento (possibili errori o bias) e impedire che lo utilizzino in modo passivo o per plagiare contenuti. La “sorveglianza umana” in ambito didattico significa che il docente monitora costantemente gli output forniti dall’IA agli studenti, ne verifica l’accuratezza e interviene per correggere eventuali informazioni scorrette o interpretazioni fuorvianti. Inoltre, il docente deve garantire equità nell’uso dell’IA: assicurarsi che tutti gli studenti abbiano l’accesso necessario e che nessuno sfrutti impropriamente le tecnologie per avvantaggiarsi. Paradossalmente, più l’IA diventa presente come tutor o assistente, più è fondamentale il ruolo di mentore del docente. Non a caso i docenti sono chiamati ad essere i mediatori pedagogici dell’IA.

Anche se l’IA può semplificare e potenziare la preparazione delle lezioni (si pensi alla generazione di materiali didattici diversificati, citata come opportunità dal documento), resta sempre al docente il compito di validare i contenuti, adattarli al contesto della propria classe e soprattutto mantenere viva la relazione educativa e la motivazione degli studenti. Le tecnologie cambiano gli strumenti, ma non sostituiscono la necessità di didattica attiva, creativa e inclusiva guidata dall’insegnante. Le Linee guida riconoscono ciò quando affermano che i docenti hanno il ruolo di garantire che l’IA arricchisca il processo educativo senza snaturarlo.

Ruolo degli studenti

Anche gli studenti sono parte attiva nell’ecosistema IA a scuola. In primo luogo, viene più volte richiamata la necessità di rendere gli studenti consapevoli e responsabili nell’utilizzo dell’IA: l’educazione all’IA è parte integrante del loro percorso formativo. Devono essere messi in grado di fruire in modo responsabile delle tecnologie emergenti, sfruttandone le opportunità ma conoscendone anche i rischi. La cultura del limite nell’uso dell’IA è un obiettivo fondamentale che va perseguito con grande sistematicità in modo che gli studenti possano acquisire tutti la piena consapevolezza e assumerlo come responsabilità personale.

Mentre ai docenti spetta guidare, agli studenti spetta impegnarsi attivamente nell’apprendimento con l’IA, mantenendo un approccio critico, rispettando le regole d’uso stabilite e sviluppando quel bagaglio di competenze digitali e civiche che li renderà cittadini capaci di navigare nel mondo dell’intelligenza artificiale in maniera etica e informata.

L’IA a scuola, una sfida per il futuro

Le aree di utilizzo indicate spaziano, dunque, dalla gestione amministrativa, attraverso algoritmi per ottimizzare orari e dati scolastici, fino alla didattica personalizzata con piattaforme adattive e tutor virtuali. Il documento menziona strumenti per la valutazione automatizzata e il feedback immediato, oltre a tecnologie inclusive come sintesi vocale, comunicazione aumentativa o riconoscimento precoce dei disturbi di apprendimento.

L’IA viene presentata come potenziale alleato per una scuola più inclusiva, efficiente e attenta ai bisogni individuali. Tuttavia, non vengono ancora forniti modelli, esempi o buone pratiche concrete. Per questo sarà necessario attendere la documentazione delle esperienze già in corso in diverse regioni italiane, particolarmente nella scuola secondaria di secondo grado. Ciò permetterà di integrare le Linee guida con guide e buone pratiche condivise. Il Ministero, a questo proposito, ha già annunciato l’implementazione della piattaforma digitale “Unica” con materiali e modelli di supporto.

In mancanza di questi requisiti, il documento si pone in termini generici, ma non per questo meno importanti: costruire una scuola capace di integrare l’IA nei curricoli, nell’offerta didattica, nei processi di apprendimento, nelle dimensioni organizzative, progettuali e amministrative, è ciò che costituisce la vera sfida per il futuro. Oggi, il valore principale delle Linee guida consiste nell’aver stabilito un quadro etico e normativo chiaro, che dovrà tradursi in formazione continua, strumenti concreti e collaborazione tra dirigenti, docenti e studenti. La vera sfida è fare dell’intelligenza artificiale non un fine, ma un mezzo per rafforzare la dimensione umana dell’educazione, dove competenze digitali e relazionali costituiscono il prerequisito di ogni innovazione di successo.

La versione 1.0 delle Linee guida non rappresenta quindi un traguardo, ma l’inizio di un percorso che assume grande rilevanza a livello europeo, segnando l’avvio di un lavoro della scuola per la scuola, in continuità con le indicazioni UNESCO e nella prospettiva di una piena cittadinanza digitale.


[1] Linee guida per l’introduzione dell’Intelligenza Artificiale nelle Istituzioni scolastiche Versione 1.0 – Anno 2025.

[2] Commissione europea: “Entra in vigore il regolamento sull’IA”.

[3] Raccomandazione Unesco sull’etica dell’IA: Modellare il futuro delle nostre società.

[4] Il Consiglio d’Europa adotta il primo trattato internazionale sull’intelligenza artificiale.

[5] UNESCO: Quadri di competenza in materia di IA, in Scuola7-398, 16 settembre 2024.

[6] Un’allucinazione si manifesta quando un modello genera contenuti che non trovano riscontro nei dati su cui è stato addestrato o che non sono logicamente coerenti con la query dell’utente.