Redazione RHC : 14 Maggio 2023 17:20
Il Parlamento europeo ha chiesto nuove leggi per regolamentare i sistemi AI come ChatGPT poiché la tecnologia è imprevedibile e si evolve più velocemente del previsto.
I legislatori ritengono che sia necessario approvare regole aggiuntive per sviluppare e implementare potenti sistemi di IA generici (a livello umano) che possano essere facilmente adattati per molteplici scopi.
Pertanto, il gruppo ha scritto in una lettera aperta lunedì scorso di inviare il presidente della Commissione europea Ursula von der Leyen e il presidente degli Stati Uniti Joe Biden a organizzare un vertice globale sull’IA in cui rappresentanti di tutto il mondo discuteranno e definiranno linee guida volte a supervisionare lo sviluppo e l’implementazione di modelli di intelligenza artificiale.
Distribuisci i nostri corsi di formazione diventando un nostro Affiliato
Se sei un influencer, gestisci una community, un blog, un profilo social o semplicemente hai tanta voglia di diffondere cultura digitale e cybersecurity, questo è il momento perfetto per collaborare con RHC Academy. Unisciti al nostro Affiliate Program: potrai promuovere i nostri corsi online e guadagnare provvigioni ad ogni corso venduto. Fai parte del cambiamento. Diffondi conoscenza, costruisci fiducia, genera valore.
Contattaci tramite WhatsApp al 375 593 1011 per richiedere ulteriori informazioni oppure scriviti alla casella di posta [email protected]
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
Assicurati che i sistemi di intelligenza artificiale siano incentrati sull’uomo, sicuri e affidabili.
La lettera ha portato le autorità di regolamentazione in Italia, Francia, Germania, Canada e Spagna ad avviare indagini su ChatGPT di OpenAI a causa di problemi di privacy dei dati e l’Italia ha temporaneamente bloccato l’accesso al chatbot ChatGPT mentre indaga su una possibile fuga di dati degli utenti.
In precedenza si è saputo che la Cina prevede di introdurre controlli di sicurezza per i servizi di intelligenza artificiale generativa prima del loro lancio. I fornitori di servizi di intelligenza artificiale devono garantire che i contenuti siano accurati e proteggano la proprietà intellettuale e non discriminino nessuno né compromettano la sicurezza. Gli operatori di intelligenza artificiale devono anche etichettare chiaramente i contenuti generati.
Negli ultimi 3 anni, l’intelligenza artificiale generativa, in particolare i modelli linguistici di grandi dimensioni (LLM), hanno rivoluzionato il modo in cui interagiamo con le macchine, perm...
“Ora che il genio è uscito dalla lampada, è impossibile rimetterlo dentro!”. Quante volte abbiamo scritto queste parole riguarda l’intelligenza artificiale? Ora che il g...
I ricercatori di Huntress hanno rilevato lo sfruttamento attivo di una vulnerabilità critica in Wing FTP Server, appena un giorno dopo la sua divulgazione pubblica. La vulnerabilità CVE-2025...
Secondo Trellix, il gruppo DoNot APT ha recentemente condotto una campagna di spionaggio informatico in più fasi, prendendo di mira il Ministero degli Affari Esteri italiano. Il gruppo, attribuit...
È stata scoperta una vulnerabilità critica di tipo double free nel modulo pipapo set del sottosistema NFT del kernel Linux. Un aggressore senza privilegi può sfruttare questa vulne...
Copyright @ REDHOTCYBER Srl
PIVA 17898011006