Cosa devono sapere i nostri figli sull’IA

by azione azione
12 Gennaio 2026

Il caffè dei genitori ◆ Alcuni studi confermano che delegare all’Intelligenza artificiale il lavoro mentale può indebolire la capacità di ragionare in modo autonomo, eppure ChatGPT è già parte della vita dei ragazzi

Mia figlia diciassettenne, Clotilde, usa l’Intelligenza artificiale per studiare. E, con ogni probabilità, lo fanno anche i vostri figli: ormai otto ragazzi su dieci la usano per i compiti. Già nel gennaio 2025, Michael Gerlich, studioso dell’impatto dell’IA sulla società alla Swiss Business School di Zurigo, metteva in guardia: delegare all’IA il lavoro mentale riduce lo sforzo cerebrale ma rischia di indebolire la capacità di ragionare in modo autonomo. Detto con le sue parole: «La nostra ricerca dimostra una significativa correlazione negativa tra l’uso frequente di strumenti di Intelligenza artificiale e le capacità di pensiero critico, mediata dal fenomeno dello scarico cognitivo. I partecipanti più giovani, che hanno mostrato una maggiore dipendenza dagli strumenti di Intelligenza artificiale, hanno ottenuto punteggi inferiori nel pensiero critico rispetto alle loro controparti più anziane».

I nostri figli devono dunque imparare a muoversi in questo nuovo mondo digitale. E questo bisogno oggi lo sentono sulla propria pelle. Il 15 ottobre 2025 l’Oxford University Press, la più grande casa editrice universitaria al mondo, ha fotografato proprio questa urgenza. Il sondaggio, condotto su 2000 studenti tra i 13 e i 18 anni nel Regno Unito, mostra che solo il 47% si sente capace di distinguere le notizie vere dalle false. Il 60% teme che l’IA favorisca il copia-incolla e il 48% chiede aiuto agli adulti per capire di cosa fidarsi.

Per Il caffè dei genitori è il segnale che in famiglia va aperto un confronto serio. Per questo ho avviato un’inchiesta per Dataroom, la redazione del «Corriere della Sera» dove lavoro. Il punto di partenza per me è chiaro: ChatGPT è già parte della vita dei nostri figli. La domanda non è più se usarlo, ma come. L’obiettivo, che condivido con voi, è capire i punti di forza e di debolezza dell’IA per aiutarli a farne un uso davvero consapevole.

Il ragionamento è semplice. Così come è illusorio pensare di proibire ai figli di vedere TikTok, ma è fondamentale che conoscano come funziona una echo chamber – il meccanismo con cui l’algoritmo propone contenuti simili a quelli già apprezzati, rinforzando convinzioni e chiudendoli in una bolla – allo stesso modo serve capire i meccanismi di funzionamento dell’IA. L’inizio dell’inchiesta si rivela complesso: una marea di opinioni, spesso contrastanti, mentre ciò che cerco io sono informazioni certe e pratiche. E indicazioni così, per un lettore comune, restano sorprendentemente difficili da trovare.

A conferma di questo arriva uno studio del 3 giugno 2025 dell’Organizzazione per la Cooperazione e lo Sviluppo Economico (Ocse), che analizza 38 Paesi: «A seconda della fonte, l’Intelligenza artificiale è destinata a salvare il mondo o a distruggerlo – scrive l’Ocse –. In un panorama dominato da clamore e paura, informazioni chiare, affidabili e sfumate sulle reali capacità dell’IA rimangono sorprendentemente assenti».

Per orientarmi decido allora di rivolgermi a Immanence, società che valuta gli impatti dell’IA in modo etico, e chiedo aiuto per mettere in fila i principali studi del 2025. L’analisi che segue si basa sui dati di Ocse, NewsGuard, Unesco e Mit di Boston. A mio parere, le informazioni che i nostri figli devono avere ben chiare in testa – e che sono supportate da evidenze scientifiche – sono quattro.

1. Le informazioni fornite possono essere false

Se un tempo i chatbot si basavano solo sui dati con cui erano stati addestrati, oggi cercano risposte in tempo reale anche nel web. Questo permette di rispondere quasi sempre, mentre prima ammettevano di non sapere una risposta in un caso su tre. Il risultato è che, in un solo anno (agosto 2025 su agosto 2024), i 10 principali modelli di IA hanno fornito notizie false nel 35% dei casi, contro il 18% precedente. ChatGPT, in particolare, ha dato risposte inaffidabili o inventate quattro volte su dieci. Occorre sapere che l’IA ha le allucinazioni: frasi formalmente perfette, ma con contenuti sbagliati o del tutto inventati.

2. I testi proposti non sono frutto di ragionamento né di creatività

Per come è addestrata, ossia su modelli statistici che analizzano enormi quantità di dati e restituiscono le connessioni più frequenti, l’IA è abile nel riprodurre ciò che ha appreso, ma non ne comprende il significato. È come uno studente che ha letto molto, ma confonde i concetti quando deve affrontare un ragionamento analitico. Allo stesso modo, non è in grado di creare qualcosa di realmente nuovo: si comporta come un artigiano capace che combina tecniche esistenti, senza però innovare.

3. Le risposte sono spesso compiacenti

Gli utenti tendono a dare «pollice su» alle risposte che li soddisfano, anche quando sono false. Di conseguenza l’IA tende a offrire ciò che la persona vuole sentirsi dire, anche se non del tutto corretto.

4. I giudizi scontano stereotipi, soprattutto quelli di genere

In un esperimento, un insegnante chiede all’IA di valutare l’attitudine alla matematica di due studenti identici per caratteristiche: «Consegna i compiti in tempo, ottiene voti tra B e A+, non fallisce mai, non alza la mano in classe». Per l’allievo maschio la risposta è che è «uno studente di matematica capace con il potenziale per eccellere ulteriormente»; per l’allieva femmina, invece, riconosce «solo il potenziale per un’ulteriore crescita, a patto che le vengano date opportunità di costruire fiducia e partecipare attivamente».

Per Il caffè dei genitori, però, l’essenziale non è che i nostri figli sappiano usare bene l’IA per non fare errori grossolani o figuracce a scuola e un domani sul posto di lavoro. Pensate che persino degli avvocati italiani hanno riportato negli atti difensivi come «precedenti» sentenze inesistenti create dall’IA, con gravi conseguenze professionali! La vera questione è soprattutto che solo chi è in grado di pensare con la propria testa e ragionare autonomamente può essere davvero libero in un mondo che tende sempre più a omologare. Uno studio del Massachusetts Institute of Technology (MIT) dimostra che chi usa ChatGpt per elaborare dei testi è portato banalmente a riutilizzare i risultati trovati online – rimanendo quindi concentrato sul copiare e incollare contenuti, con una connettività cerebrale ridotta fra il 34% e il 55% – piuttosto che incorporare i propri pensieri originali e modificarli con le proprie prospettive e le proprie esperienze. E poi non si ricorda più quasi nulla di quello che ha scritto.

Nel 2005 in un discorso alla classe dei laureati del Kenyon College lo scrittore statunitense David Foster Wallace dice: «Una formazione umanistica non consiste tanto nel fornirti conoscenze quanto nell’“insegnarti a pensare”. (…) Uno degli aspetti di ciò che dovrebbe realmente significare insegnarmi a pensare? Avere un minimo di consapevolezza critica di me stesso e delle mie certezze. Perché un’enorme percentuale delle cose di cui tendo ad essere automaticamente certo è, a quanto pare, totalmente sbagliata e illusoria. L’ho imparato a mie spese, come prevedo che farete anche voi laureati». Ecco, a parere de Il caffè dei genitori, quello che prima di tutto i nostri figli devono imparare quando utilizzano l’IA per studiare è che le informazioni e i ragionamenti dell’Intelligenza artificiali che considerano automaticamente certi sono, a quanto pare, troppo spesso totalmente sbagliati e illusori. Conoscere i limiti dei chatbot aiuta a usare di più e meglio il proprio cervello.