Redazione RHC : 23 Ottobre 2023 07:52
I contenuti generati dall’intelligenza artificiale stanno iniziando a riempire Internet e questa potrebbe essere una brutta notizia per i futuri modelli di intelligenza artificiale. Come sappiamo, i modelli linguistici come ChatGPT vengono formati dai contenuti trovati su Internet.
Poiché l’intelligenza artificiale crea contenuti più “sintetici”, potrebbe sorgere un problema ingegneristico noto come “collasso del modello”. Il filtraggio dei dati sintetici dai modelli di addestramento sta diventando un’importante area di ricerca e probabilmente crescerà man mano che i contenuti dell’intelligenza artificiale popoleranno Internet.
Il simbolo di “Uroboros”, raffigura un serpente che inghiotte la propria coda. Nell’era dell’intelligenza artificiale, questo simbolismo assume un significato nuovo e toccante. Quando i contenuti editoriali generati dai modelli linguistici dell’intelligenza artificiale iniziano a popolare Internet, purtroppo contengono molti errori.
CORSO NIS2 : Network and Information system 2
La direttiva NIS2 rappresenta una delle novità più importanti per la sicurezza informatica in Europa, imponendo nuovi obblighi alle aziende e alle infrastrutture critiche per migliorare la resilienza contro le cyber minacce.
Con scadenze stringenti e penalità elevate per chi non si adegua, comprendere i requisiti della NIS2 è essenziale per garantire la compliance e proteggere la tua organizzazione.
Accedi All'Anteprima del Corso condotto dall'Avv. Andrea Capelli sulla nostra Academy e segui l'anteprima gratuita.
Per ulteriori informazioni, scrivici ad [email protected] oppure scrivici su Whatsapp al 379 163 8765
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
Internet è la fonte su cui vengono formati questi modelli linguistici. In altre parole, sempre di più le IA “consumeranno” se stesse. L’intelligenza artificiale inizierà ad apprendere da dati errati fino a quando tutto ciò che produrrà sarà assurdo o frutto di allucinazione per compensare a informazioni mancanti.
Questo è ciò che i ricercatori dell’intelligenza artificiale chiamano “collasso del modello”. Uno studio recente ha utilizzato un modello linguistico per generare testo sull’architettura inglese. Dopo aver addestrato più volte l’IA su questo test sintetico, la risposta del decimo modello era completamente priva di significato.
Per addestrare in modo efficace i nuovi modelli di intelligenza artificiale, le aziende hanno bisogno di dati che non vengano danneggiati da informazioni generate i modo sintetico.
Alex Dimakis, co-direttore del National AI Institute for the Foundations of Machine Learning, afferma che una piccola raccolta di dati di alta qualità può sovraperformare rispetto ad una grande raccolta di dati sintetici. Per ora, gli ingegneri devono vagliare i dati per assicurarsi che l’intelligenza artificiale non impari dai dati sintetici che ha creato da sola.
Kali Linux 2025.2 segna un nuovo passo avanti nel mondo del penetration testing, offrendo aggiornamenti che rafforzano ulteriormente la sua reputazione come strumento fondamentale per la sicurezza inf...
Nel mondo del cybercrime moderno, dove le frontiere tra criminalità e imprenditoria si fanno sempre più sfumate, il gruppo ransomware LockBit rappresenta un caso di studio affascinante. Atti...
Microsoft 365 Copilot è uno strumento di intelligenza artificiale integrato in applicazioni Office come Word, Excel, Outlook, PowerPoint e Teams. I ricercatori hanno recentemente scoperto che lo ...
Una vulnerabilità di sicurezza critica nei Servizi Desktop remoto di Windows, monitorata con il codice CVE-2025-32710, consente ad aggressori non autorizzati di eseguire codice arbitrario in...
Ghost Security, noto anche come GhostSec, è un gruppo hacktivista emerso nel contesto della guerra cibernetica contro l’estremismo islamico. Le sue prime azioni risalgono alla fase success...
Copyright @ REDHOTCYBER Srl
PIVA 17898011006