
Nel 2024 potrebbe nascere in Russia un centro specializzato per la ricerca sulla sicurezza nel campo dell’intelligenza artificiale (AI). Questa iniziativa è stata espressa da Anna Kulashova, amministratore delegato di Kaspersky Lab in Russia e nei paesi della CSI, al forum sulla tecnologia dell’informazione del 2 aprile.
Secondo lei è necessario creare un unico centro per la ricerca sulla sicurezza dell’intelligenza artificiale, simile ai team di risposta agli incidenti informatici (CERT). Kulashova ha sottolineato che nel campo della sicurezza informatica vengono già effettuati controlli regolari per garantire la sicurezza dello sviluppo del software e che un approccio simile dovrebbe essere applicato agli algoritmi di intelligenza artificiale.
Secondo Vedomosti, il vice ministro per lo sviluppo digitale Alexander Shoitov ha confermato che il dipartimento sta già lavorando alla creazione di un CERT sull’intelligenza artificiale insieme alle parti interessate. “Dato che i problemi di sicurezza dell’intelligenza artificiale si stanno sviluppando nelle singole aziende e nelle agenzie governative, è necessaria la creazione di un unico centro di ricerca sulla sicurezza delle informazioni (IS) dell’intelligenza artificiale come unico punto di ricerca”, ha affermato.
In Russia sono già operativi diversi CERT, come l’ICS-CERT di Kaspersky Lab, GosSOPKA, GOV-CERT dell’FSB e il centro FinCERT della Banca centrale specializzato nel settore finanziario.
Artem Sychev, consigliere dell’amministratore delegato di Positive Technologies, ha affermato che la questione della creazione del CERT per l’intelligenza artificiale viene discussa nel contesto dello sviluppo del progetto nazionale “Data Economy”, che dovrebbe sostituire il progetto nazionale “Digital Economy”.
Kulashova ha chiarito che con l’interazione attiva tra i partecipanti, un tale centro potrebbe essere lanciato già nel 2024. Ritiene logico che il centro venga creato sulla base del regolatore e vi possano aderire operatori di telecomunicazioni, membri dell’Alleanza nel campo dell’intelligenza artificiale, aziende specializzate e altri ancora. L’obiettivo è proteggersi congiuntamente dai rischi informatici legati all’intelligenza artificiale, condividendo rapidamente informazioni e raccomandazioni per rispondere agli incidenti. Lavorare con l’intelligenza artificiale, afferma, richiede “fiducia, verificabilità e affidabilità e il controllo delle vulnerabilità degli strumenti di sviluppo”.
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

InnovazioneL’intelligenza artificiale è entrata nel lavoro senza bussare. Non come una rivoluzione urlata, ma come una presenza costante, quasi banale a forza di ripetersi. Ha cambiato il modo in cui le persone lavorano, sì, ma…
CybercrimeUna nuova minaccia si aggira, usando la nostra più grande debolezza: l’abitudine. Quante volte, infatti, capita di ritrovarsi a cliccare su caselle di verifica senza pensarci due volte? Ora, pare che i malintenzionati abbiano creato…
CybercrimeLa falla di sicurezza in WinRAR, emersa durante la scorsa estate, ha mostrato una diffusione maggiore rispetto alle aspettative. Diverse organizzazioni, sia criminali comuni che gruppi APT finanziati da nazioni, stanno sfruttando attivamente questa vulnerabilità,…
CybercrimeIl forum RAMP (Russian Anonymous Marketplace), uno dei principali punti di riferimento del cybercrime underground internazionale, è stato ufficialmente chiuso e sequestrato dalle forze dell’ordine statunitensi. La notizia è emersa dopo che il dominio associato…
DirittiOggi è il 28 gennaio e, come ogni anno da un bel po’ di tempo a questa parte, ci ritroviamo a celebrare la Giornata europea della protezione dei dati. È una roba che nasce nel…