Redazione RHC : 26 Gennaio 2024 07:17
Nel mondo di oggi, l’intelligenza artificiale (AI) è spesso associata a sistemi “chiusi”, come ChatGPT di OpenAI, in cui il software è controllato dagli sviluppatori e da un numero limitato di partner. Allo stesso tempo, cresce la preoccupazione per la diffusione incontrollata di potenti sistemi di intelligenza artificiale open source.
OpenAI, nonostante il suo nome, ha rifiutato di pubblicare il codice sorgente dei suoi sistemi GPT nel 2019 a causa delle preoccupazioni sugli abusi. Al contrario, altre aziende come Meta e Stability AI hanno scelto di democratizzare l’accesso all’intelligenza artificiale rilasciando sistemi potenti ma con logiche diverse.
I sistemi di intelligenza artificiale open source rappresentano un rischio significativo a causa della facilità con cui possono essere utilizzati per scopi dannosi. Possono essere utilizzati per diffondere disinformazione attraverso i social media e per creare materiali pericolosi, comprese armi chimiche e biologiche.
PARTE LA PROMO ESTATE -40%
RedHotCyber Academy lancia una promozione esclusiva e a tempo limitato per chi vuole investire nella propria crescita professionale nel mondo della tecnologia e della cybersecurity!
Approfitta del 40% di sconto sull’acquisto congiunto di 3 corsi da te scelti dalla nostra Academy. Ad esempio potresti fare un percorso formativo includendo Cyber Threat intelligence + NIS2 + Criptovalute con lo sconto del 40%. Tutto questo lo potrai fruire, dove e quando vuoi e con la massima flessibilità, grazie a lezioni di massimo 30 minuti ciascuna.
Contattaci tramite WhatsApp al 375 593 1011 per richiedere ulteriori informazioni oppure scriviti alla casella di posta [email protected]
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
Sospendere il rilascio di sistemi di IA non protetti finché non saranno soddisfatti determinati requisiti o regole internazionali potrebbe essere una decisione sensata. Anche se il concetto di software chiuso sappiamo le derive che porta nel tempo.
Crea meccanismi di valutazione, mitigazione e audit indipendenti del rischio per sistemi di intelligenza artificiale potrebbe essere una soluzione di regolamentazione. Inoltre potrebbe aver senso richiedere filigrane ed una etichettatura chiara dei contenuti generati dall’intelligenza artificiale. Garantire la trasparenza nei dati di formazione e vietare l’uso di dati personali e contenuti che incitano all’odio.
Sarebbe necessario istituire un organismo di regolamentazione operativo (ed internazionale) per rispondere rapidamente a questi problemi e aggiornare costantemente questi criteri. Istituire dei laboratori di test prima che queste tecnologie siano messe in campo e supportare le organizzazioni di verifica dei gruppi della comunità. Cooperare a livello internazionale per creare un trattato internazionale per prevenire l’elusione di queste normative.
Democratizzare l’accesso all’intelligenza artificiale attraverso la creazione di infrastrutture pubbliche. Gary Marcus, un rinomato scienziato cognitivo, sottolinea che la regolamentazione dell’intelligenza artificiale aperta è al momento una questione irrisolta e di fondamentale importanza.
Queste raccomandazioni sono solo l’inizio. La loro implementazione richiederà costi significativi e resistenza da parte di potenti lobbisti e sviluppatori. Tuttavia, senza tale azione, i produttori di IA non garantita possono realizzare profitti miliardari, spostando i rischi sulla società.
Il problema che queste potenti tecnologie se mal regolamentate potranno essere delle armi di “distruzione di massa”, che potrebbero portare il mondo nel caos più totale. Sicuramente la decisione è in mano alle superpotenze e agli interessi di ognuna di queste di realizzare un mondo più sicuro e migliore.
Cosa possiamo fare noi? Molto poco, se non guardare dalla finestra gli eventi e quello che i potenti faranno del nostro futuro e del futuro dei nostri figli.
Nel febbraio 2025 avevamo già osservato il funzionamento di DDoSIA, il sistema di crowd-hacking promosso da NoName057(16): un client distribuito via Telegram, attacchi DDoS contro obiettivi europ...
Le vulnerabilità critiche recentemente scoperte nell’infrastruttura Cisco sono già state sfruttate attivamente dagli aggressori per attaccare le reti aziendali. L’azienda ha co...
La Red Hot Cyber Conference ritorna! Dopo il grande successo della terza e quarta edizione, torna l’appuntamento annuale gratuito ideato dalla community di RHC! Un evento pensato per ...
Con la rapida crescita delle minacce digitali, le aziende di tutto il mondo sono sotto attacco informatico. Secondo gli ultimi dati di Check Point Research, ogni organizzazione subisce in media 1,984 ...
La nuova famiglia di malware LameHug utilizza il Large Language Model (LLM) per generare comandi che vengono eseguiti sui sistemi Windows compromessi. Come riportato da Bleeping Computer, LameHug ...
Iscriviti alla newsletter settimanale di Red Hot Cyber per restare sempre aggiornato sulle ultime novità in cybersecurity e tecnologia digitale.
Copyright @ REDHOTCYBER Srl
PIVA 17898011006