Vivere nella scuola con l’IA

Cinque coordinate per educare alla consapevolezza

La scuola si trova oggi di fronte a una sfida che non può permettersi di affrontare con gli strumenti del passato. L’intelligenza artificiale generativa, gli ecosistemi digitali in continua evoluzione, la proliferazione di informazione e disinformazione richiedono a docenti e dirigenti scolastici un aggiornamento costante non per rincorrere l’ultima tecnologia, ma per comprendere le trasformazioni cognitive e culturali che investono noi ed i nostri studenti. Non si tratta quindi semplicemente di introdurre nuovi dispositivi in classe o di vietarne altri, occorre prima di tutto sviluppare un’alfabetizzazione critica che permetta alle nuove generazioni di muoversi consapevolmente in un mondo dove il confine tra umano e artificiale, tra vero e verosimile, tra conoscenza e informazione si fa sempre più sfumato. Filosofi della tecnologia come Luciano Floridi, ricercatori della comunicazione digitale come Walter Quattrociocchi e osservatori attenti delle dinamiche tecnologiche come Christopher Mims ci offrono concetti e strumenti interpretativi fondamentali. Questi strumenti non sono astrazioni teoriche ma chiavi di lettura indispensabili per costruire risposte educative adeguate. Sono intellettuali che ragionano, che hanno una visione e una profondità di analisi e mantengono un approccio rigoroso e critico affidandoci nuovi concetti e nuove categorie e aiutandoci a maturare un approccio critico e responsabile.

Epistemia: non cosa ma come conosciamo nell’era dell’IA

Il concetto di epistemia, al centro delle riflessioni recenti di Walter Quattrociocchi[1], riguarda il modo in cui produciamo, organizziamo e validiamo la conoscenza nell’epoca dell’intelligenza artificiale. I modelli di linguaggio generativi hanno introdotto una frattura epistemologica profonda: i loro output appaiono credibili e coerenti, ma sono frutto di correlazioni statistiche, non di comprensione. Quattrociocchi definisce epistemia la condizione in cui la plausibilità linguistica sostituisce la valutazione epistemica, dando “l’illusione di sapere senza la fatica del giudizio”. In altre parole, c’è il rischio di sentirsi informati solo perché un testo generato da un’IA suona autorevole. Un saggio prodotto da una IA può essere formalmente impeccabile, ma privo di autentica comprensione; una risposta può sembrare sicura ma contenere errori fattuali o bias nascosti. Il vero pericolo è un’erosione epistemica in cui lo stile sostituisce la sostanza, facendoci perdere la capacità di distinguere il vero dal falso e facendoci costruire una conoscenza con i piedi di argilla.

Implicazioni educative – Per gli studenti questo significa confrontarsi quotidianamente con contenuti la cui origine e affidabilità non sono immediatamente riconoscibili. L’educazione deve quindi sviluppare una nuova competenza epistemica: la capacità di interrogare le fonti di conoscenza, di distinguere tra informazione verificabile e contenuto generato, di comprendere i limiti e le potenzialità degli strumenti digitali. Nelle discipline umanistiche come nella scienza, questo richiede di insegnare non solo “cosa sapere” ma “come conosciamo”, stimolando negli studenti una metacognizione che li renda consapevoli dei processi attraverso cui si forma la conoscenza. Solo così potranno essere cittadini digitali critici piuttosto che consumatori passivi di informazioni, evitando la trappola dell’epistemia ed esercitando un pensiero critico autonomo invece di delegare la propria cognizione a un algoritmo.

Pareidolia digitale: quando l’IA ci mostra ciò che vogliamo vedere

Luciano Floridi ha sviluppato il concetto di pareidolia digitale[2] per spiegare come tendiamo a interpretare erroneamente l’intelligenza artificiale. Al centro della sua filosofia c’è una distinzione fondamentale: l’IA possiede Agency, cioè la capacità di agire efficacemente per raggiungere obiettivi, ma non possiede Intelligence, intesa come capacità cognitiva, comprensione, coscienza e sentimenti. L’IA rappresenta quindi un fenomeno inedito: agisce senza pensare. Può risolvere problemi complessi, scrivere codice e comporre poesie, ma non comprende ciò che sta facendo. La pareidolia digitale funziona in modo simile a quella tradizionale che ci fa vedere volti nelle nuvole o figure nelle macchie sul muro. Quando osserviamo gli output sofisticati dell’IA, tendiamo a proiettare su di essa intelligenza e intenzionalità. Questo accade perché storicamente abbiamo sempre visto unite azione e comprensione: un falegname deve capire cos’è un tavolo per costruirlo, un poeta deve comprendere le emozioni per scrivere versi. L’IA rompe questo legame millenario, ma noi continuiamo istintivamente a proiettare “comprensione” su di essa semplicemente vedendone i risultati impressionanti. Floridi parla di una vera e propria fallacia dell’attribuzione. Poiché l’output dell’IA è semanticamente ricco e ha senso per noi che lo leggiamo, commettiamo l’errore di credere che sia stato prodotto da un processo semantico, che l’IA voglia effettivamente dire qualcosa. In realtà, l’IA produce solo sintassi basata su statistiche e probabilità, mentre siamo noi esseri umani a iniettare il significato nei testi generati. L’IA funziona come uno “specchio semantico”: quando la osserviamo, vediamo riflessa la nostra stessa intelligenza e cultura contenute nei dati di addestramento, e per un effetto di pareidolia ci convinciamo che ci sia qualcuno dentro la macchina. Ma la macchina è vuota; siamo noi a riempirla di significato.

Implicazioni educative – Questa consapevolezza ha implicazioni pratiche cruciali. Serve innanzitutto a sgonfiare l’hype[3]: l’IA non è un’entità senziente né una minaccia esistenziale in stile Terminator, ma uno strumento di calcolo estremamente avanzato. Questa consapevolezza aiuta anche ad evitare l’antropomorfismo dannoso che ci porta a fidarci troppo dell’IA o ad attribuirle responsabilità morali che non può avere. Soprattutto, ci restituisce il controllo: comprendere che siamo noi a dare senso ai risultati dell’IA significa riconoscere la nostra responsabilità etica nel loro utilizzo.

La pareidolia digitale è particolarmente insidiosa in ambito educativo, dove rischiamo di delegare a sistemi automatici compiti che richiederebbero giudizio umano, di considerare obiettive le raccomandazioni algoritmiche, di confondere la fluenza linguistica con la saggezza o con una vera coscienza in relazione. Quando chiediamo a un chatbot un consiglio personale e riceviamo una risposta articolata, è facile dimenticare che dietro quella risposta non c’è empatia ma predizione linguistica, non c’è comprensione ma elaborazione statistica di pattern nei dati.

Capitale semantico: il valore nascosto della comprensione profonda

Il concetto di capitale semantico[4], sviluppato da Luciano Floridi nell’ambito della filosofia dell’informazione, si riferisce al valore intrinseco della comprensione profonda, della capacità di dare significato all’informazione grezza. In un’epoca di sovrabbondanza informativa, dove qualsiasi dato è accessibile istantaneamente, ciò che fa la differenza non è più l’accesso all’informazione ma la capacità di interpretarla, contestualizzarla, collegarla ad altre conoscenze. Floridi chiarisce che il capitale semantico non è la somma delle informazioni possedute, bensì la capacità generativa di creare, curare e trasmettere significato a partire dalle informazioni di cui disponiamo. È grazie a questo capitale che interpretiamo e comprendiamo il mondo, tessiamo connessioni inedite tra idee, creiamo nuovi significati e costruiamo l’intelaiatura culturale che dà senso alla nostra esperienza. Il capitale semantico è ciò che distingue una biblioteca da un semplice archivio di dati, una conversazione viva da uno scambio sterile di messaggi, una cultura da un elenco di nozioni: è la ricchezza di significato che ci rende umani pensanti, non meri elaboratori di input.

Implicazioni educative – Per gli studenti questo rappresenta un cambio di paradigma fondamentale. Se Google può fornire qualsiasi fatto in secondi e ChatGPT può riassumere qualsiasi testo, perché studiare? La risposta sta proprio nel capitale semantico: la rete di significati, connessioni, sfumature che solo una mente umana educata può costruire. Leggere la Divina Commedia non serve a memorizzare versi ma a sviluppare sensibilità culturale, capacità interpretativa, profondità storica. Studiare matematica non significa solo applicare formule ma costruire pensiero logico e capacità di astrazione. Come evidenzia Floridi, investire sul capitale semantico significa privilegiare il capire rispetto al semplice sapere: non basta raccogliere informazioni, occorre saperle collegare, tradurre in visione e in scelte consapevoli. Nelle competenze digitali, il capitale semantico si traduce nella differenza tra chi sa “usare” uno strumento e chi ne comprende la logica, i limiti, le implicazioni etiche. L’educazione del XXI secolo deve quindi focalizzarsi sulla costruzione di questo capitale semantico, insegnando agli studenti non a competere con le macchine nell’elaborazione di informazioni ma a sviluppare quella comprensione profonda e contestuale che rimane prerogativa umana. Le discipline scolastiche non sono contenitori di nozioni, ma linguaggi per costruire reti di significato sempre più ricche e complesse. In un’era di overload informativo, il capitale semantico diventa la base per costruire fiducia, valore e cittadinanza nella società digitale.

Distance writing: scrivere nell’era dell’automazione testuale

Il concetto di distance writing[5] (o scrittura a distanza) emerge dalla riflessione sulle nuove modalità di produzione testuale rese possibili dall’IA generativa. Non si tratta più solo di scrivere personalmente o di delegare completamente la scrittura, ma di navigare uno spettro di possibilità intermedie: dalla revisione di testi generati dall’IA, all’integrazione di frammenti automatici in testi originali, fino all’utilizzo di sistemi come co-autori. Questa separazione tra concezione ed esecuzione del testo non è nuova – si pensi agli architetti o ai compositori – ma nel distant writing assume una dimensione inedita: lo scrittore non scopre né inventa storie già esistenti, ma le progetta, creando relazioni tra mondo interno ed esterno come una chiave nella sua serratura.

Nella prospettiva più ampia di Floridi sulla mediazione tecnologica, il distance writing si inserisce nella “quarta rivoluzione” che sposta l’umanità dal centro dello spazio informazionale: non siamo più i soli produttori di contenuti significativi ma designer, curatori e interpreti in un ecosistema che include agenti artificiali. Questo richiede un ripensamento profondo dell’educazione: emergono nuove figure professionali come gli “addestratori di IA”, e l’intelligenza umana diventa ancora più necessaria per guidare efficacemente le macchine.

Implicazioni educative – Nella didattica occorre sviluppare competenze che includano la capacità di distinguere quando usare l’IA, valutare criticamente i testi generati, integrare fonti mantenendo autenticità, e documentare il processo creativo. La “distanza” tra autore e testo varia, ma deve essere sempre una scelta consapevole e dichiarata: ciò che conta non è la distanza tecnologica ma la capacità di mantenere il controllo sul significato prodotto. La responsabilità intellettuale, epistemica ed etica rimane interamente umana, come un architetto che non costruisce fisicamente ma è riconosciuto creatore dell’edificio. Il distant writing non sostituisce la scrittura tradizionale ma espande le possibilità creative, sfidando le concezioni tradizionali di autorialità mentre richiede di preservare la voce autentica e il pensiero critico anche nella collaborazione con strumenti automatici.

Critical ignoring: l’arte di ignorare strategicamente

In un ecosistema informativo saturo, dove siamo bombardati da notifiche, contenuti virali, notizie false e stimoli continui, il critical ignoring[6] (ignorare criticamente) emerge come competenza fondamentale. Sviluppato nell’ambito degli studi sulla misinformazione da psicologi ed esperti di media literacy, questo concetto, recentemente diffuso in un articolo di Cristopher Mims sul Wall Street Journal[7], ribalta l’approccio tradizionale all’educazione digitale: non si tratta solo di imparare a valutare criticamente ogni informazione, ma di sviluppare strategie per ignorare consapevolmente ciò che non merita attenzione.

Come evidenziato nelle ricerche di Quattrociocchi sulla diffusione della disinformazione, il fact-checking di ogni contenuto dubbio è una strategia perdente: richiede tempo ed energia cognitiva sproporzionati e spesso amplifica proprio i contenuti che vorremmo contrastare. Meglio puntare sul pre-bunking – anticipare e vaccinare le menti contro le tecniche di manipolazione – piuttosto che rincorrere ogni falsità dopo che si è diffusa.

Il critical ignoring insegna a riconoscere rapidamente i segnali di inaffidabilità e a non impegnarsi con contenuti progettati per catturare l’attenzione attraverso provocazione o scandalo. Valutare indizi come l’assenza di fonti, accuse non fondate o linguaggio eccessivamente sensazionalistico può aiutare a decidere subito di ignorare un post prima che ci indigni o ci confonda. Questa strategia permette di preservare le risorse cognitive per le informazioni davvero importanti, evitando di cadere vittime del “flooding the zone” (quando attori senza scrupoli inondano lo spazio informativo di contenuti futili o provocatori per distogliere l’attenzione).

Implicazioni educative – Per gli studenti questo significa sviluppare quella che potremmo chiamare “igiene informativa”: la capacità, cioè, di proteggere la propria attenzione come una risorsa preziosa, di selezionare fonti affidabili piuttosto che rincorrere ogni novità, di resistere alla tentazione del clickbait. In un mondo dove l’economia dell’attenzione è progettata per catturare e trattenere, saper ignorare diventa un atto di resistenza cognitiva e di autodeterminazione.

Nelle pratiche didattiche questo si traduce nell’insegnare non solo il pensiero critico analitico (come valutare un contenuto in profondità), ma anche un pensiero critico selettivo: dove rivolgere l’attenzione e quando ignorare. Strategie come il “lateral reading” (verificare una notizia cercando riscontri altrove) restano importanti anche e proprio in funzione di selezione di ciò che conta e ciò che non conta approfondire.

In classe si può discutere apertamente di come riconoscere contenuti spazzatura, esercitarsi a identificare titoli sensazionalistici o fonti sconosciute e decidere consapevolmente di ignorarli. Studi recenti propongono perfino di inserire il critical ignoring nei curricula scolastici di educazione civica digitale. Cittadinanza digitale significa anche saper dire “no” all’infodemia, proteggendo il proprio spazio mentale per approfondimenti significativi piuttosto che consumo superficiale.

Questi cinque concetti – epistemia, pareidolia digitale, capitale semantico, distance writing e critical ignoring – non sono tendenze passeggere ma coordinate essenziali per orientarsi in un panorama educativo radicalmente trasformato. Insieme disegnano un approccio pedagogico che va oltre l’alfabetizzazione digitale intesa come semplice capacità d’uso degli strumenti.


[1] Walter Quattrociocchi, Valerio Capraro, Matjaz Perc, Epistemological Fault Lines Between Human and Artificial Intelligence.

[2] Luciano Floridi, AI and Semantic Pareidolia: When We See Consciousness Where There Is None.

[3] È una parola inglese che deriva da hyperbole (iperbole) e descrive il “gonfiare” le aspettative tramite il marketing o il passaparola, rendendo un prodotto, un film o un evento l’oggetto del desiderio di tutti. L’hype è quella scarica di adrenalina collettiva e grande aspettativa che si crea attorno a qualcosa che deve ancora accadere.

[4] Luciano Floridi, Il capitale semantico nell’era digitale, Trento, 26 settembre 2018 – Lectio magistralis in occasione dell’inaugurazione del Master in Comunicazione della Scienza e dell’Innovazione.

[5] Luciano Floridi, Distant Writing: Literary Production in the Age of Artificial Intelligence Revisedversion 5.

[6] Anastasia Kozyreva, Sam Wineburg, Stephan Lewandowsky, Ralph Hertwig, Critical ignoring as a core competence for digital citizens.

[7] Cristopher Mims, La tua abilità chiave per la sopravvivenza nel 2026: ignorare i punti critici.