Red Hot Cyber

La cybersecurity è condivisione.
Riconosci il rischio, combattilo, condividi le tue esperienze ed 
incentiva gli altri a fare meglio di te.

Cerca

Gli studenti russi pericolosi, verranno identificati analizzando la loro scrittura da una AI.

Redazione RHC : 6 Ottobre 2021 21:00

  

Le scuole russe inizieranno a identificare gli studenti pericolosi con comportamenti distruttivi usando l’intelligenza artificiale (AI), analizzando il loro lavoro scritto. Per questo programma verranno assegnati 1,7 miliardi di rubli (circa 20 milioni di euro) secondo Vedomosti.

La bozza della nota esplicativa al bilancio riporta che questi fondi saranno utilizzati per sviluppare software per analizzare il lavoro scritto degli studenti e quindi identificare

“una tendenza a comportamenti socialmente pericolosi e distruttivi”.

Tutto ciò dovrebbe ridurre al minimo il numero di potenziali studenti che sono inclini a “commettere atti che minacciano la loro vita” o la vita e la salute di coloro che li circondano.

Questo problema dovrebbe essere affrontato dagli specialisti del Centro ANO per lo studio e il monitoraggio della rete dell’ambiente giovanile (TsISM) per il periodo fino al 2024.

Il nuovo sviluppo è associato all’aumento dell’incidenza della violenza nelle istituzioni educative. All’inizio di maggio di quest’anno, nel ginnasio n. 175 di Kazan, uno dei diplomati ha aggredito studenti e insegnanti, sette bambini e due insegnanti sono stati uccisi.

Solo cinque mesi dopo, il diciottenne ha anche lanciato un attacco armato alla Perm State University, uccidendo otto persone e ferendone molte.

Ovviamente occorrerà comprendere il numero di falsi positivi e falsi negativi che questa tecnologia non riuscirà a gestire, sempre che si possa comprenderne a posteriori la correttezza delle analisi.

Redazione
La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull'informatica in generale.