Red Hot Cyber
La cybersecurity è condivisione. Riconosci il rischio, combattilo, condividi le tue esperienze ed incentiva gli altri a fare meglio di te.
Cerca

ChatGPT ci sta spegnendo il cervello! L’allarmante ricerca del MIT mostra il decadimento mentale

Redazione RHC : 21 Giugno 2025 10:05

Durante una RHC Conference, Corrado Giustozzi sottolineò una verità tanto semplice quanto potente: “L’essere umano è, da sempre, un creatore di amplificatori.”. Dalla ruota alla macchina, ogni invenzione ha avuto uno scopo preciso: fare meglio, fare prima. Abbiamo trasformato ore in minuti, giorni in istanti. Abbiamo guadagnato tempo, efficienza, velocità.

Ma tutto questo… a quale prezzo?

Nel contesto degli strumenti AI emergenti, il Massachusetts Institute of Technology (MIT) ha svolto uno studio su come l’impiego ripetuto di ChatGPT per scrivere saggi possa generare una forma di “debito cognitivo” rilevando una riduzione della capacità di ragionamento autentico e doti analitiche personali.


PARTE LA PROMO ESTATE -40%

RedHotCyber Academy lancia una promozione esclusiva e a tempo limitato per chi vuole investire nella propria crescita professionale nel mondo della tecnologia e della cybersecurity!

Approfitta del 40% di sconto sull’acquisto congiunto di 3 corsi da te scelti dalla nostra Academy. Ad esempio potresti fare un percorso formativo includendo Cyber Threat intelligence + NIS2 + Criptovalute con lo sconto del 40%. Tutto questo lo potrai fruire, dove e quando vuoi e con la massima flessibilità, grazie a lezioni di massimo 30 minuti ciascuna.

Contattaci tramite WhatsApp al 375 593 1011 per richiedere ulteriori informazioni oppure scriviti alla casella di posta [email protected]



Supporta RHC attraverso:


Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.


La ricerca del MIT ha coinvolto 54 partecipanti in diverse condizioni sperimentali—scrittura autonoma, assistita da motori di ricerca tradizionali e affidata all’intelligenza artificiale—con l’obiettivo di quantificare l’impatto neuro-cognitivo di ciascun approccio .

Analisi EEG dinamica della funzione di trasferimento diretto (dDTF) della banda Alpha per i gruppi: LLM, Search Engine, solo cervello, inclusi i valori p per mostrare la significatività da moderatamente significativa () ad altamente significativa (**). Credito: Natalia Kosmyna

I dati raccolti tramite elettroencefalografia hanno rivelato che la scrittura completamente autonoma stimola la connettività cerebrale più robusta e distribuita, seguita dall’uso di Google. Al contrario, l’utilizzo di ChatGPT ha mostrato una connettività più debole, in particolare nelle bande alfa e beta, segno di uno sforzo cognitivo ridotto. Ciò suggerisce che l’assistente AI alleggerisce il carico mentale, ma a discapito del coinvolgimento attivo del cervello.

Quando i partecipanti hanno invertito l’esperienza, passando dall’AI alla scrittura autonoma, l’EEG ha evidenziato che la connettività rimaneva depressa. Questo indica che l’esposizione all’IA può avere effetti duraturi sulla capacità cognitiva, compromettendo la prontezza mentale anche dopo l’interruzione dell’uso dell’assistente.

Sul piano delle competenze linguistiche e mnemoniche, i soggetti hanno avuto difficoltà a citare correttamente parti del testo creato con l’AI, con tassi di errore molto più elevati rispetto agli altri due gruppi, e segnalando anche una minore percezione di proprietà del lavoro. I testi prodotti con ChatGPT mostravano inoltre una minore diversità lessicale e strutturale .

Le implicazioni educative emerse da questo lavoro sono rilevanti: l’uso precoce e ripetuto di intelligenze artificiali per compiti che richiedono sforzo cognitivo può indurre una sorta di dipendenza, riducendo la capacità autonoma di pensiero. Gli autori suggeriscono che l’AI debba essere impiegata come uno strumento di supporto, non come sostituto, preferibilmente dopo che lo studente abbia esercitato le proprie abilità in modo indipendente .

Accanto all’impatto cognitivo, viene sollevato anche il tema ambientale: l’uso di modelli AI come ChatGPT richiede consumi energetici e risorse computazionali significativamente superiori alle ricerche web standard, incrementando il “debito” anche a livello ecologico . In sintesi, lo studio mette in luce che, nonostante i vantaggi pratici, un uso non strutturato dell’AI può comprometterne la funzione didattica, rendendo necessario un approccio pedagogico bilanciato e consapevole.

Lo studio puntualizza e afferma che usare ChatGPT non ci fa diventare stupidi, ma afferma che se usi troppo gli assistenti AI per fare il lavoro al posto tuo, non imparerai nulla.

Redazione
La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull'informatica in generale.

Lista degli articoli

Articoli in evidenza

NoName057(16) sferra nuovi attacchi DDoS contro organizzazioni italiane e avverte su Telegram

Questa mattina, gli hacker di NoName057(16) hanno sferrato attacchi DDoS contro diversi obiettivi italiani. Name057(16) è un gruppo di hacker che si è dichiarato a m...

Tasting the Exploit: HackerHood testa l’exploit su Wing FTP Server del CVE-2025-47812 da Score 10

Questo strumento è destinato esclusivamente a scopi didattici e di penetration testing autorizzati. L’autore non si assume alcuna responsabilità per eventuali usi impropri o dann...

Vulnerabilità in Google Gemini: Attacchi di Phishing tramite messaggi nascosti all’interno delle Email

Gli esperti di sicurezza di 0din hanno individuato una falla critica in Google Gemini for Workspace, la quale permette ai malintenzionati di inserire direttive malevole all’interno delle email....

Grok 3: “Adolf Hitler è un Benefattore tedesco”! Il rischio della memoria persistente e disinformazione

Con l’emergere dei Large Language Models (LLM), come Grok 3, GPT-4, Claude e Gemini, l’attenzione della comunità scientifica si è spostata dalla semplice accuratezza delle risp...

Alla scoperta dei firewall LLM. La nuova frontiera nella sicurezza Informatica Adattiva

Negli ultimi 3 anni, l’intelligenza artificiale generativa, in particolare i modelli linguistici di grandi dimensioni (LLM), hanno rivoluzionato il modo in cui interagiamo con le macchine, perm...