Indice dei contenuti
Debito Cognitivo: Quando l’Intelligenza Artificiale Impoverisce la Mente
Il Prezzo Nascosto della Delega Tecnologica
Viviamo in un’epoca in cui ChatGPT può scrivere saggi, risolvere problemi complessi e fornire risposte articolate in pochi secondi. Ma cosa accade al nostro cervello quando delegiamo sistematicamente funzioni cognitive fondamentali all’intelligenza artificiale?
La risposta emerge da una ricerca innovativa del MIT Media Lab: stiamo accumulando un “debito cognitivo” le cui conseguenze potrebbero essere più gravi di quanto immaginiamo.
Quando il Ministero Vieta gli Smartphone: Un Segnale d’Allarme
La recente circolare del Ministero dell’Istruzione e del Merito del 16 giugno 2025, che vieta l’utilizzo degli smartphone anche nella scuola secondaria di secondo grado, ha acceso un dibattito cruciale. Il Ministro Valditara ha motivato la decisione con tre elementi chiave:
- Rischio di distrazione costante
- Impoverimento del clima di classe
- Necessità di proteggere i processi cognitivi degli studenti
Ma il divieto degli smartphone è solo la punta dell’iceberg. La vera sfida riguarda l’uso crescente dell’intelligenza artificiale generativa nei processi di apprendimento.
Cos’è il Debito Cognitivo?
Il debito cognitivo rappresenta quei costi differiti che paghiamo quando delegiamo sistematicamente funzioni cognitive essenziali a un agente esterno. Parliamo di:
- Memoria di lavoro
- Pianificazione e organizzazione
- Rielaborazione linguistica
- Costruzione di inferenze logiche
- Pensiero critico
Quando un compito viene svolto con l’aiuto di un assistente IA, la performance immediata può sembrare eccellente. Ma il prezzo nascosto è la riduzione dell’impegno metacognitivo e della profondità con cui internalizziamo concetti e procedure.
Il Fenomeno Non Colpisce Tutti Allo Stesso Modo
È importante sottolineare che il debito cognitivo non si manifesta uniformemente. Le variabili in gioco includono:
Fattori individuali:
- Livello di competenza preesistente
- Motivazione intrinseca
- Capacità di autoregolazione cognitiva
- Strategie metacognitive sviluppate
Fattori contestuali:
- Qualità dell’ambiente educativo
- Presenza di regole chiare sull’uso dell’IA
- Supervisione da parte di docenti formati
- Struttura delle attività didattiche
Gli studenti più esperti o con elevate capacità metacognitive possono compensare parzialmente la riduzione di impegno. Al contrario, chi parte già svantaggiato rischia un impoverimento marcato delle proprie risorse cognitive.
Dal Google Effect al ChatGPT Effect
Il fenomeno non è completamente nuovo. Già nel 2011, una ricerca pionieristica di Sparrow, Liu e Wegner aveva documentato il cosiddetto “Google Effect”: tendiamo a ricordare meglio dove trovare un’informazione piuttosto che l’informazione stessa, quando sappiamo che sarà facilmente reperibile online.
Una meta-analisi recente del 2024 ha confermato la robustezza di questo fenomeno, dimostrando che dipende da:
- Livello di conoscenza pregressa
- Tipo di dispositivo utilizzato
- Frequenza d’uso dello strumento digitale
Con l’avvento dell’IA generativa, però, il fenomeno si è amplificato esponenzialmente. Non deleghiamo più solo il recupero di informazioni, ma l’intero processo di elaborazione cognitiva.
La Ricerca del MIT: Dati Inquietanti
Lo studio del MIT Media Lab (Kosmyna et al., 2025) intitolato “Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task” ha coinvolto 54 partecipanti in un compito di scrittura con tre condizioni diverse:
- “Brain-only” – solo cervello umano
- “Search Engine” – con motore di ricerca
- “LLM” – con ChatGPT
I Risultati Sono Allarmanti:
I dati raccolti mediante elettroencefalogramma (EEG) e analisi linguistiche hanno rivelato:
✗ Minore connettività cerebrale durante l’uso di ChatGPT
✗ Testi più omogenei e standardizzati, con perdita di originalità
✗ Effetti negativi persistenti anche nelle sessioni successive senza IA
In altre parole: l’uso di ChatGPT non compromette solo la performance nel momento in cui lo utilizziamo, ma lascia tracce negative durature sulla nostra attività cerebrale.
La Dimensione Emotiva: Non Solo Cognizione
Il debito cognitivo non è solo una questione di neuroni e sinapsi. Ha profonde ripercussioni sul piano emotivo e motivazionale.
Cosa Succede Quando Deleghiamo Troppo?
Sul piano individuale:
- Riduzione della soddisfazione per il completamento autonomo dei compiti
- Diminuzione della percezione di autoefficacia
- Crescente dipendenza dagli strumenti esterni
- Frustrazione quando lo strumento non è disponibile
Sul piano sociale:
- Modifica delle dinamiche di apprendimento collaborativo
- Riduzione del senso di responsabilità individuale
- Alterazione delle relazioni con compagni e insegnanti
- Creazione di nuove forme di dipendenza psicologica
Gli adolescenti sono particolarmente vulnerabili: in una fase della vita in cui il bisogno di riconoscimento e relazione è intenso, la delega all’IA può compromettere lo sviluppo dell’identità e dell’autonomia.
Smartphone a Scuola: Distrazione o Opportunità?
Il divieto degli smartphone risponde a dati concreti. Le ricerche di psicologia cognitiva dimostrano che:
- Le notifiche frammentano l’attenzione
- Il multitasking compromette la codifica mnemonica
- La semplice presenza dello smartphone riduce le capacità cognitive disponibili
Tuttavia, la letteratura scientifica evidenzia la natura ambivalente di questi dispositivi. Lo smartphone è:
Da un lato: Una fonte di distrazione costante
Dall’altro: Un potenziale canale per attività didattiche innovative
L’aspetto cruciale non è tanto il divieto in sé, quanto la definizione di cornici regolative che guidino l’uso verso finalità specifiche e formative.
L’IA Come Partner Cognitivo: È Possibile?
Non tutto è perduto. Ricerche recenti mostrano che l’intelligenza artificiale può diventare un partner cognitivo positivo se integrata correttamente:
Quando l’IA Stimola il Pensiero Critico
Studi del 2023 dimostrano che ChatGPT può effettivamente stimolare il pensiero critico quando:
✓ L’uso è guidato da docenti formati
✓ Gli studenti sono incoraggiati a verificare le fonti
✓ Viene richiesta la rielaborazione personale delle informazioni
✓ Si valorizza il processo oltre al prodotto finale
Sviluppare l’AI Literacy
Altre ricerche evidenziano il potenziale dell’IA per sviluppare:
- “AI literacy” – alfabetizzazione all’intelligenza artificiale
- Creatività attraverso la co-costruzione della conoscenza
- Competenze di supervisione e analisi critica
Il Rischio dell’Illusione Sociale
Attenzione però: studi del 2024 documentano che gli utenti tendono a proiettare caratteristiche umane sui chatbot, generando illusioni sociali e aspettative relazionali inappropriate. Questo è particolarmente rischioso per gli adolescenti.
Verso Un’Ecologia Cognitiva delle Tecnologie Digitali
Alla luce delle evidenze scientifiche, è urgente costruire un’ecologia cognitiva delle tecnologie digitali nell’educazione.
Raccomandazioni Operative per Scuole e Famiglie
1. Alternare momenti “a cervello nudo” e uso guidato dell’IA
- Dedicare tempo all’apprendimento senza strumenti digitali
- Utilizzare l’IA solo per fasi specifiche del processo
2. Documentare i processi cognitivi
- Chiedere agli studenti di registrare i passaggi chiave delle interazioni con l’IA
- Analizzare come e perché hanno utilizzato lo strumento
3. Valutare i processi, non solo i prodotti
- Introdurre rubriche che valorizzino il percorso di apprendimento
- Premiare l’originalità e il pensiero critico
4. Uso mirato e regolato degli smartphone
- Attività circoscritte nel tempo
- Obiettivi specifici e verificabili
- Momenti di “disconnessione” strutturati
5. Promuovere autonomia, competenza e relazione
- Applicare i principi della Self-Determination Theory
- Creare ambienti che favoriscano la motivazione intrinseca
Implicazioni Etiche e Sociali
L’integrazione dell’IA nell’apprendimento solleva questioni etiche cruciali:
Equità e Disparità Cognitive
- Rischio di digital divide cognitivo: non tutti gli studenti hanno le stesse capacità di compensazione
- Necessità di algoritmi trasparenti: capire come l’IA prende decisioni
- Politiche scolastiche basate su evidenze scientifiche
Cittadinanza Digitale
L’educazione deve includere:
- Comprensione dei meccanismi dell’IA
- Consapevolezza dei propri processi cognitivi
- Capacità critica verso i contenuti generati automaticamente
- Costruzione di un’identità digitale sana
Il Ruolo Cruciale degli Insegnanti
La formazione dei docenti diventa strategica:
- Capacità di integrare tecnologia e apprendimento critico
- Prevenzione di fenomeni di dipendenza cognitiva
- Valorizzazione delle potenzialità creative degli studenti
- Gestione consapevole degli strumenti digitali in classe
Trasformare l’IA in Strumento di Empowerment
La questione non va ridotta a un referendum “tecnologia sì/tecnologia no”. Serve un approccio sfumato che bilanci rischi documentati e opportunità reali.
La Posta in Gioco
Non si tratta solo di produttività immediata, ma di:
- Qualità dell’impegno cognitivo a lungo termine
- Sviluppo emotivo e psicologico degli studenti
- Capacità di pensiero autonomo per tutta la vita
- Resilienza cognitiva di fronte alle sfide future
La Via dell’Empowerment
L’uso consapevole di IA e dispositivi digitali può diventare leva positiva quando:
✓ Insegnanti, studenti e policymaker collaborano
✓ Si costruiscono strategie sostenibili e integrate
✓ La tecnologia è strumento, non sostituto del pensiero
✓ Si stimolano creatività, pensiero critico e regolazione emotiva
Conclusioni: Il Futuro del Pensiero nell’Era dell’IA
Il debito cognitivo non è un destino inevitabile, ma un rischio da gestire con consapevolezza. Le evidenze scientifiche ci mostrano chiaramente che:
- L’uso non guidato dell’IA impoverisce le capacità cognitive
- Gli effetti negativi persistono anche dopo l’interruzione dell’uso
- Non tutti gli studenti sono ugualmente vulnerabili
- Contesti educativi strutturati possono trasformare il rischio in opportunità
La sfida per genitori, educatori e policymaker è costruire un ecosistema educativo in cui la tecnologia amplifica le capacità umane invece di sostituirle.
Solo così l’intelligenza artificiale potrà diventare veramente una leva positiva, anziché un fattore di impoverimento cognitivo ed emotivo per le future generazioni.
Note Scientifiche
Questo articolo si basa su ricerche peer-reviewed e studi sperimentali pubblicati su riviste scientifiche internazionali.
Bibliografia
Baidoo-Anu, D., & Owusu Ansah, L. (2023). Education in the Era of Generative Artificial Intelligence (AI): Understanding the Potential Benefits of ChatGPT in Promoting Teaching and Learning. Journal of AI, 7(1), 52–62. https://doi.org/10.61969/jai.1337500 SSRNSCIRP
Baig, M. I., Yadegaridehkordi, E. (2024) ChatGPT in the higher education: A systematic literature review and research challenges. International Journal of Educational Research, 127. p. 102411. ISSN 0883-0355, DOI https://doi.org/10.1016/j.ijer.2024.102411.
Deci, E. L., Ryan, R. M. (2000). Self-determination theory and the facilitation of intrinsic motivation, social development, and well-being. American Psychologist, 55(1), 68–78.
Dempere, J., Modugu, K., Hesham, A., & Ramasamy, L. K. (2023). The impact of ChatGPT on higher education. Frontiers in Education, 8. https://doi.org/10.3389/feduc.2023.1206936
Elsayed, S. (2023). Towards Mitigating ChatGPT’s Negative Impact on Education: Optimizing Question Design through Bloom’s Taxonomy. [arXiv preprint]
Fiske, A., Henningsen, P., Buyx, A. (2019). Your robot therapist will see you now: Ethical implications of embodied artificial intelligence in mental health care. Journal of Medical Internet Research, 21(5), e13216. https://doi.org/10.2196/13216
Gessinger, I., Seaborn, K., Steeds, M., Cowan, B. R., (2024) Chatgpt and Me: First-Time and Experienced Users’ Perceptions of Chatgpt’s Communicative Ability as a Dialogue Partner. http://dx.doi.org/10.2139/ssrn.4829547
Gong, C., Yang, Y. (2024). Google effects on memory: A meta-analytical review of the media effects of intensive Internet search behavior. Frontiers in Psychology, 14, 1277068. https://doi.org/10.3389/fpsyg.2023.1277068
Kasneci, E., Seufert, S., Theil, S., Kasneci, G., Weigel, A. (2023). ChatGPT for good? On opportunities and challenges of large language models for education. Learning and Individual Differences, 103, 102274. https://doi.org/10.1016/j.lindif.2023.102274
Kim, M., Lee, S., Kim, S., Heo, J..I, Lee, S., Shin, Y.B., Cho, C.H., Jung, D. (2025). Therapeutic Potential of Social Chatbots in Alleviating Loneliness and Social Anxiety: Quasi-Experimental Mixed Methods Study. J Med Internet Res.;27:e65589. doi: 10.2196/65589. PMID: 39808786; PMCID: PMC11775481.
Kirschner, P. A., De Bruyckere, P. (2023). The myths of the digital native and the multitasker. Educational Psychologist, 58(2), 87–101. https://doi.org/10.1080/00461520.2023.2183459
Kosmyna, N., Hauptmann, E., Yuan, Y. T., Situ, J., Liao, X.-H., Beresnitzky, A. V., Braunstein, I., Maes, P. (2025). Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task (preprint). arXiv:2506.08872.
Long, D., Magerko, B. (2020). What is AI Literacy? Competencies and design considerations. CHI Conference on Human Factors in Computing Systems, 1–16. https://doi.org/10.1145/3313831.3376727
Łukasik, A., Gut, A. (2025). From robots to chatbots: unveiling the dynamics of human-AI interaction. Front Psychol.;16:1569277. doi: 10.3389/fpsyg.2025.1569277. PMID: 40271364; PMCID: PMC12014614.
Pergantis, P., Bamicha, V., Skianis, C., Drigas, A. (2025). AI Chatbots and Cognitive Control: Enhancing Executive Functions Through Chatbot Interactions: A Systematic Review. Brain Sci.;15(1):47. doi: 10.3390/brainsci15010047. PMID: 39851415; PMCID: PMC11764365.
Risko, E. F., & Gilbert, S. J. (2016). Cognitive offloading. Trends in Cognitive Sciences, 20(9), 676–688. https://doi.org/10.1016/j.tics.2016.07.002
Shen, Y., Heacock, L., Elias, J., Hentel, K. D., Reig, B., Shih, G., & Moy, L. (2023). ChatGPT and other large language models are double-edged swords. Radiology, 307(2), e230163.
Sparrow, B., Liu, J., & Wegner, D. M. (2011). Google effects on memory: Cognitive consequences of having information at our fingertips. Science, 333(6043), 776–778. https://doi.org/10.1126/science.1207745
Susnjak, T. (2022). ChatGPT: The end of online exam integrity? Journal of Applied Learning & Teaching, 5(3).
Ward, A. F., Duke, K., Gneezy, A., & Bos, M. W. (2017). Brain drain: The mere presence of one’s own smartphone reduces available cognitive capacity. Journal of the Association for Consumer Research, 2(2), 140–154.
ARTINLEX offre consulenza specializzata per scuole e istituzioni educative su tematiche relative all’uso responsabile dell’intelligenza artificiale, alla tutela dei minori online e alla compliance normativa in ambito digitale.
Contattaci per un’analisi personalizzata delle esigenze della tua istituzione.
Avv. Cassatella
L’Avv. Cassatella presta consulenza alle Aziende, anche in ordine alla Cybersecurity e si è occupata di numerosi casi di reati in cui l’Intelligenza Artificiale è stato lo strumento o il mezzo con il quale la condotta criminosa è stata realizzata.

