Dal caso META all’IA a scuola

Opportunità, rischi e regole in evoluzione

L’intelligenza artificiale (IA) sta rivoluzionando il mondo dell’istruzione, offrendo strumenti innovativi per la didattica, la valutazione e la gestione scolastica. Tuttavia, questa trasformazione solleva forti interrogativi in merito alla privacy, all’etica, alla trasparenza e alla concorrenza. L’avvio di un’istruttoria da parte dell’Antitrust italiano nei confronti di Meta per l’integrazione automatica di Meta AI su WhatsApp[1] ha riacceso il dibattito sull’uso responsabile dell’IA, soprattutto in ambito educativo.

Caso Meta: un precedente significativo

Nell’adunanza del 22 luglio 2025, l’Autorità Garante della Concorrenza e del Mercato (AGCM), agendo in stretta cooperazione con i competenti uffici della Commissione Europea, ha deliberato l’avvio di un procedimento istruttorio (in data 30 luglio) nei confronti di Meta per presunto abuso di posizione dominante, in violazione dell’articolo 102 del Trattato sul Funzionamento dell’Unione Europea.

L’avvio dell’istruttoria nasce dalla contestazione che la funzione “Meta AI” è stata preinstallata in una posizione prominente (come la barra di ricerca) e resa immediatamente accessibile agli utenti di WhatsApp, dove Meta detiene una posizione dominante nel mercato dei servizi di messaggistica. Secondo l’Antitrust:

  • gli utenti non possono rimuovere o nascondere Meta AI;
  • l’integrazione potrebbe generare dipendenza funzionale dagli algoritmi;
  • Meta sfrutterebbe la propria posizione dominante per entrare nel mercato dei chatbot, penalizzando i concorrenti.

Questa vicenda solleva interrogativi anche per il mondo scolastico, dove WhatsApp è spesso utilizzato come strumento di comunicazione tra docenti, studenti e famiglie. L’introduzione automatica di un assistente IA in un’app così diffusa potrebbe influenzare indirettamente le dinamiche educative, senza che le istituzioni scolastiche abbiano voce in capitolo.

Le potenzialità dell’IA nella didattica

È indubbio che l’applicazione dell’Intelligenza artificiale nella didattica può risolvere molti problemi, accelerare l’apprendimento, migliorare l’efficacia dell’insegnamento.

Pensiamo, per esempio, ai sistemi di tutoraggio personalizzato (ITS): rappresentano una delle applicazioni più promettenti nella didattica, trasformando l’apprendimento generalizzato in un’esperienza su misura per ogni studente. Questi sistemi non sono semplici chatbot, ma piattaforme sofisticate che integrano diverse tecniche di IA per analizzare, adattare e supportare in modo continuo il percorso formativo individuale.

L’IA permette sicuramente di poter arrivare molto facilmente ad una analisi predittiva del rendimento scolastico. Utilizzando algoritmi di Machine Learning (apprendimento automatico) per analizzare grandi quantità di dati relativi agli studenti, l’IA è in grado di prevedere i risultati futuri, come il rischio di insuccesso o di dispersione scolastica, consentendo interventi tempestivi e mirati.

Un’area di sviluppo con l’IA particolarmente utile è l’automazione della correzione dei compiti. Non si tratta semplicemente di assegnare un voto, ma di trasformare l’intero processo di valutazione per renderlo più efficiente, coerente e, soprattutto, formativo.

Il potere dell’IA nel supporto alla didattica inclusiva risiede nella capacità di personalizzare l’esperienza di apprendimento, superando le barriere che possono limitare gli studenti con Bisogni Educativi Speciali (BES), Disturbi Specifici dell’Apprendimento (DSA) o altre difficoltà. Attraverso l’IA è più facile rimuovere le barriere e garantire pari opportunità a tutti gli allievi, potenziando l’autonomia nello studio e nella comprensione dei contenuti.

I rischi dell’IA nella didattica

Tuttavia, sappiamo bene che accanto ai vantaggi vanno presi in considerazione anche i tanti rischi per i processi di insegnamento apprendimento che l’IA può accentuare in maniera significativa.

Bias algoritmici e discriminazione – È il rischio etico più significativo. Gli strumenti di IA, soprattutto quelli addestrati su grandi quantità di dati, riflettono inevitabilmente i pregiudizi presenti in quei dati (culturali, sociali, di genere o razziali). Un sistema di IA utilizzato per la valutazione o per la personalizzazione dei percorsi potrebbe inavvertitamente perpetuare stereotipi se i dati di addestramento non sono rappresentativi, equi e bilanciati.

Dipendenza tecnologica – L’eccessiva fiducia nell’automazione e la delega all’IA possono ridurre il ruolo critico dell’insegnante e trasformarlo in semplice gestore di piattaforma mettendo così in crisi anche lo sviluppo di competenze umane fondamentali.

Privacy degli studenti – L’IA per la didattica si basa sull’analisi dei dati di apprendimento (learning analytics), che sono informazioni sensibili sugli studenti, sui loro progressi e sulle loro difficoltà. Le piattaforme, se non sono regolamentate, mettono gli studenti a rischio di potenziale furto o abuso di dati sensibili. La conformità al GDPR (Regolamento generale sulla protezione dei dati) è un dato ineludibile, però non risulta sempre di facile attuazione.

Trasparenza e accountability – La natura complessa di alcuni algoritmi (black box) rende difficile comprendere come vengono prese le decisioni. Per i non esperti costituiscono processi molto opachi.

Quadro normativo europeo

Il quadro normativo europeo, composto principalmente dal Regolamento Generale sulla Protezione dei Dati (GDPR) e dall’AI Act, unito alle Linee guida nazionali (come quelle del del MIM), può costituire sicuramente una base solida e necessaria per mitigare i rischi dell’IA nella scuola, ma potrebbe essere non ancora sufficiente. L’efficacia nel mitigare totalmente i rischi non dipende solo dall’esistenza delle norme, ma anche e soprattutto dalla loro concreta e responsabile applicazione nelle singole istituzioni scolastiche.

Secondo l’AI Act (Regolamento UE 1689/2024), le scuole, in qualità di utilizzatori (deployer) di sistemi di Intelligenza Artificiale (IA) a supporto della didattica, della gestione amministrativa e dei processi valutativi, devono adempiere a una serie di obblighi, in particolare quando utilizzano sistemi classificati come ad alto rischio. Devono innanzitutto:

  • classificare i sistemi IA in base al livello di rischio (minimo, limitato, alto, inaccettabile);
  • verificare la conformità dei fornitori di IA;
  • aggiornare la documentazione sulla privacy (DPIA, Registro dei trattamenti, Informativa IA);
  • attivare codici etici e percorsi di formazione per il personale.

In particolare, i sistemi di IA utilizzati per la valutazione degli studenti, l’orientamento scolastico o la gestione disciplinare rientrano nella categoria ad alto rischio, e sono soggetti a obblighi stringenti.

Implicazioni per le scuole

Il caso Meta evidenzia ancora di più la necessità di affrontare con urgenza e consapevolezza le implicazioni etiche e di privacy, ma anche le implicazioni pedagogiche dell’integrazione delle tecnologie di intelligenza artificiale e digitali nella didattica generale. In modo particolare le scuole sono chiamate a:

  • controllare l’integrazione di IA nei software scolastici. Devono verificare che gli strumenti digitali utilizzati non includano funzionalità IA non richieste;
  • rafforzare la formazione del personale. I dirigenti e i docenti devono essere in grado di riconoscere e valutare i rischi legati all’uso dell’IA;
  • coinvolgere le famiglie e gli studenti. È fondamentale garantire trasparenza e consenso informato nell’uso di tecnologie IA;
  • collaborare con le autorità. Le istituzioni scolastiche devono dialogare con il Garante Privacy e l’AGCM per segnalare eventuali criticità.

L’uso dell’intelligenza artificiale a scuola non può prescindere da una visione etica e sostenibile. È necessario, quindi:

  • selezionare e utilizzare strumenti trasparenti e spiegabili;
  • garantire inclusività e non discriminazione;
  • proteggere i diritti digitali degli studenti;
  • favorire una didattica aumentata, ma non sostituiva.

In sostanza, l’introduzione dell’IA richiede un approccio proattivo, trasparente e normativamente attento alla tutela della comunità scolastica.

Strumenti digitali e competenze per cittadini digitali

Nel contesto del framework europeo DigComp 2.2, l’intelligenza artificiale assume un ruolo centrale nella formazione di una cittadinanza digitale consapevole. Le competenze digitali non si limitano all’uso degli strumenti, ma includono la capacità di comprendere, valutare e interagire criticamente con le tecnologie emergenti.

Le nuove Linee guida per l’insegnamento dell’educazione civica riconoscono l’IA come tema trasversale, da affrontare attraverso approcci interdisciplinari e metodologie attive, affinché gli studenti sviluppino un pensiero critico e una partecipazione democratica informata.

In questo scenario, l’utilizzo pratico degli strumenti di IA in ambiente scolastico offre la palestra ideale per sviluppare una vera e propria cittadinanza digitale consapevole. Non è quindi solo oggetto di studio, ma uno strumento didattico privilegiato, da maneggiare con delicatezza per farne un uso etico e trasparente.

Pensiamo ai chatbot che, nell’ambito scolastico, sta trasformando il modo in cui studenti e insegnanti interagiscono con la conoscenza. Questi assistenti virtuali offrono un supporto personalizzato 24 ore su 24, rispondendo a domande, spiegando concetti e suggerendo risorse didattiche in tempo reale. La loro capacità di adattarsi al livello di comprensione di ciascun alunno li rende strumenti preziosi per favorire l’inclusione e il recupero. Inoltre, alleggeriscono il carico degli insegnanti, gestendo richieste ripetitive e facilitando l’organizzazione delle attività. Se utilizzati con consapevolezza, i chatbot non sostituiscono l’interazione umana, ma la amplificano, rendendo l’apprendimento più interattivo, stimolante e accessibile

In sintesi

L’intelligenza artificiale rappresenta una straordinaria opportunità per innovare la scuola, ma richiede regole chiare, consapevolezza diffusa e vigilanza costante. Il caso Meta è un campanello d’allarme che invita le istituzioni educative a interrogarsi sul ruolo dell’IA nella didattica e a costruire un futuro in cui tecnologia e diritti camminino insieme.


[1] Provvedimento dell’Autorità garante della concorrenza e del mercato nell’adunanza del 22 luglio 2025.