
Redazione RHC : 26 Gennaio 2024 07:17
Nel mondo di oggi, l’intelligenza artificiale (AI) è spesso associata a sistemi “chiusi”, come ChatGPT di OpenAI, in cui il software è controllato dagli sviluppatori e da un numero limitato di partner. Allo stesso tempo, cresce la preoccupazione per la diffusione incontrollata di potenti sistemi di intelligenza artificiale open source.
OpenAI, nonostante il suo nome, ha rifiutato di pubblicare il codice sorgente dei suoi sistemi GPT nel 2019 a causa delle preoccupazioni sugli abusi. Al contrario, altre aziende come Meta e Stability AI hanno scelto di democratizzare l’accesso all’intelligenza artificiale rilasciando sistemi potenti ma con logiche diverse.
I sistemi di intelligenza artificiale open source rappresentano un rischio significativo a causa della facilità con cui possono essere utilizzati per scopi dannosi. Possono essere utilizzati per diffondere disinformazione attraverso i social media e per creare materiali pericolosi, comprese armi chimiche e biologiche.
CVE Enrichment Mentre la finestra tra divulgazione pubblica di una vulnerabilità e sfruttamento si riduce sempre di più, Red Hot Cyber ha lanciato un servizio pensato per supportare professionisti IT, analisti della sicurezza, aziende e pentester: un sistema di monitoraggio gratuito che mostra le vulnerabilità critiche pubblicate negli ultimi 3 giorni dal database NVD degli Stati Uniti e l'accesso ai loro exploit su GitHub.
Cosa trovi nel servizio: ✅ Visualizzazione immediata delle CVE con filtri per gravità e vendor. ✅ Pagine dedicate per ogni CVE con arricchimento dati (NIST, EPSS, percentile di rischio, stato di sfruttamento CISA KEV). ✅ Link ad articoli di approfondimento ed exploit correlati su GitHub, per ottenere un quadro completo della minaccia. ✅ Funzione di ricerca: inserisci un codice CVE e accedi subito a insight completi e contestualizzati.
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Sospendere il rilascio di sistemi di IA non protetti finché non saranno soddisfatti determinati requisiti o regole internazionali potrebbe essere una decisione sensata. Anche se il concetto di software chiuso sappiamo le derive che porta nel tempo.
Crea meccanismi di valutazione, mitigazione e audit indipendenti del rischio per sistemi di intelligenza artificiale potrebbe essere una soluzione di regolamentazione. Inoltre potrebbe aver senso richiedere filigrane ed una etichettatura chiara dei contenuti generati dall’intelligenza artificiale. Garantire la trasparenza nei dati di formazione e vietare l’uso di dati personali e contenuti che incitano all’odio.
Sarebbe necessario istituire un organismo di regolamentazione operativo (ed internazionale) per rispondere rapidamente a questi problemi e aggiornare costantemente questi criteri. Istituire dei laboratori di test prima che queste tecnologie siano messe in campo e supportare le organizzazioni di verifica dei gruppi della comunità. Cooperare a livello internazionale per creare un trattato internazionale per prevenire l’elusione di queste normative.
Democratizzare l’accesso all’intelligenza artificiale attraverso la creazione di infrastrutture pubbliche. Gary Marcus, un rinomato scienziato cognitivo, sottolinea che la regolamentazione dell’intelligenza artificiale aperta è al momento una questione irrisolta e di fondamentale importanza.
Queste raccomandazioni sono solo l’inizio. La loro implementazione richiederà costi significativi e resistenza da parte di potenti lobbisti e sviluppatori. Tuttavia, senza tale azione, i produttori di IA non garantita possono realizzare profitti miliardari, spostando i rischi sulla società.
Il problema che queste potenti tecnologie se mal regolamentate potranno essere delle armi di “distruzione di massa”, che potrebbero portare il mondo nel caos più totale. Sicuramente la decisione è in mano alle superpotenze e agli interessi di ognuna di queste di realizzare un mondo più sicuro e migliore.
Cosa possiamo fare noi? Molto poco, se non guardare dalla finestra gli eventi e quello che i potenti faranno del nostro futuro e del futuro dei nostri figli.
Redazione
Cloudflare ha registrato un’interruzione significativa nella mattina del 5 dicembre 2025, quando alle 08:47 UTC una parte della propria infrastruttura ha iniziato a generare errori interni. L’inci...

Una campagna sempre più aggressiva, che punta direttamente alle infrastrutture di accesso remoto, ha spinto gli autori delle minacce a tentare di sfruttare attivamente le vulnerabilità dei portali V...

Dietro molte delle applicazioni e servizi digitali che diamo per scontati ogni giorno si cela un gigante silenzioso: FreeBSD. Conosciuto soprattutto dagli addetti ai lavori, questo sistema operativo U...

Molto spesso parliamo su questo sito del fatto che la finestra tra la pubblicazione di un exploit e l’avvio di attacchi attivi si sta riducendo drasticamente. Per questo motivo diventa sempre più f...

Dal 1° luglio, Cloudflare ha bloccato 416 miliardi di richieste da parte di bot di intelligenza artificiale che tentavano di estrarre contenuti dai siti web dei suoi clienti. Secondo Matthew Prince, ...