
Un episodio inquietante ha scosso la comunità scolastica di DeLand, in Florida. Un ragazzo di 13 anni è stato arrestato dopo aver digitato su un sistema di intelligenza artificiale una domanda agghiacciante: “Come faccio a uccidere il mio amico nel bel mezzo della lezione?”
Secondo quanto riferito dall’ufficio dello sceriffo della contea di Volusia, l’allarme è scattato grazie a Gaggle, una piattaforma che monitora costantemente le attività digitali degli studenti, individuando messaggi e ricerche considerate pericolose. Proprio questo sistema ha intercettato la domanda posta a ChatGPT e ha inviato un avviso automatico alla sicurezza scolastica.
Gli agenti sono intervenuti rapidamente alla Southwestern Middle School, dove hanno fermato il tredicenne. Durante l’interrogatorio, l’adolescente ha dichiarato di non avere reali intenzioni violente e di aver scritto la frase come “uno scherzo” nei confronti di un compagno che lo stava infastidendo.
Christmas Sale -40% 𝗖𝗵𝗿𝗶𝘀𝘁𝗺𝗮𝘀 𝗦𝗮𝗹𝗲! Sconto del 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮 del Corso "Dark Web & Cyber Threat Intelligence" in modalità E-Learning sulla nostra Academy!🚀
Fino al 𝟯𝟭 𝗱𝗶 𝗗𝗶𝗰𝗲𝗺𝗯𝗿𝗲, prezzi pazzi alla Red Hot Cyber Academy. 𝗧𝘂𝘁𝘁𝗶 𝗶 𝗰𝗼𝗿𝘀𝗶 𝘀𝗰𝗼𝗻𝘁𝗮𝘁𝗶 𝗱𝗲𝗹 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮.
Per beneficiare della promo sconto Christmas Sale, scrivici ad [email protected] o contattaci su Whatsapp al numero di telefono: 379 163 8765.
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Le autorità hanno però chiarito che un simile comportamento, anche se spacciato per goliardata, non può essere sottovalutato. Secondo lo sceriffo, infatti, frasi di questo tipo creano situazioni di emergenza nei campus, distolgono risorse delle forze dell’ordine e possono generare panico tra studenti e famiglie.
L’episodio porta alla luce un tema più ampio: il ruolo dei sistemi di sorveglianza digitale e i rischi legati a un utilizzo superficiale dell’intelligenza artificiale da parte dei più giovani. Strumenti come Gaggle ricordano scenari simili a quelli rappresentati in Minority Report, il film in cui le autorità prevengono i crimini prima che avvengano. In questo caso, non si tratta di preveggenza, ma di algoritmi in grado di intercettare segnali d’allarme e attivare meccanismi di intervento immediato.
Le forze dell’ordine hanno colto l’occasione per rivolgere un appello ai genitori: parlare apertamente con i figli dell’impatto delle proprie azioni online e spiegare perché certe richieste, anche se ironiche, possono avere conseguenze serie. Un messaggio digitato in pochi secondi può infatti innescare interventi reali e compromettere il futuro scolastico e legale di un minore.
Il caso dimostra come l’integrazione di sistemi di intelligenza artificiale e piattaforme di monitoraggio nelle scuole stia cambiando il concetto stesso di sicurezza: la prevenzione passa sempre più dall’analisi delle tracce digitali lasciate dagli studenti, sollevando al tempo stesso interrogativi etici sul bilanciamento tra tutela e sorveglianza.
Seguici su Google News, LinkedIn, Facebook e Instagram per ricevere aggiornamenti quotidiani sulla sicurezza informatica. Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

CyberpoliticaDietro il nome tecnicamente anodino di ChatControl si muove una delle più profonde torsioni del rapporto tra Stato, tecnologia e cittadini mai tentate nell’Unione europea. Non è una legge “contro la pedopornografia online”, come viene…
CulturaConosciamo quello che è stato considerato uno degli uomini di scienza, forse pari solo a Einstein, più poliedrici e geniali dello scorso secolo. Con un ampissimo spettro di talenti scientifici, sviluppati anche grazie ad un…
CybercrimeLa comunità dei criminali informatici sta rapidamente aumentando il suo interesse nel reclutare personale all’interno delle aziende. Invece di sofisticati attacchi esterni, i criminali si affidano sempre più a fonti interne, ovvero persone disposte a…
CyberpoliticaNella Virginia settentrionale, lungo quello che viene ormai definito il “corridoio dei data center”, sorgono enormi strutture senza finestre che costituiscono l’ossatura fisica della corsa statunitense all’intelligenza artificiale. Questi edifici, grandi quanto hangar industriali, assorbono…
HackingIl team AI Research (STAR) di Straiker ha individuato Villager, un framework di penetration testing nativo basato sull’intelligenza artificiale, sviluppato dal gruppo cinese Cyberspike. Lo strumento, presentato come soluzione red team, è progettato per automatizzare…