Redazione RHC : 23 Ottobre 2023 07:52
I contenuti generati dall’intelligenza artificiale stanno iniziando a riempire Internet e questa potrebbe essere una brutta notizia per i futuri modelli di intelligenza artificiale. Come sappiamo, i modelli linguistici come ChatGPT vengono formati dai contenuti trovati su Internet.
Poiché l’intelligenza artificiale crea contenuti più “sintetici”, potrebbe sorgere un problema ingegneristico noto come “collasso del modello”. Il filtraggio dei dati sintetici dai modelli di addestramento sta diventando un’importante area di ricerca e probabilmente crescerà man mano che i contenuti dell’intelligenza artificiale popoleranno Internet.
Il simbolo di “Uroboros”, raffigura un serpente che inghiotte la propria coda. Nell’era dell’intelligenza artificiale, questo simbolismo assume un significato nuovo e toccante. Quando i contenuti editoriali generati dai modelli linguistici dell’intelligenza artificiale iniziano a popolare Internet, purtroppo contengono molti errori.
Vuoi diventare un esperto del Dark Web e della Cyber Threat Intelligence (CTI)?
Stiamo per avviare il corso intermedio in modalità "Live Class", previsto per febbraio.
A differenza dei corsi in e-learning, disponibili online sulla nostra piattaforma con lezioni pre-registrate, i corsi in Live Class offrono un’esperienza formativa interattiva e coinvolgente.
Condotti dal professor Pietro Melillo, le lezioni si svolgono online in tempo reale, permettendo ai partecipanti di interagire direttamente con il docente e approfondire i contenuti in modo personalizzato.
Questi corsi, ideali per aziende, consentono di sviluppare competenze mirate, affrontare casi pratici e personalizzare il percorso formativo in base alle esigenze specifiche del team, garantendo un apprendimento efficace e immediatamente applicabile.
Contattaci tramite WhatsApp al 375 593 1011 per richiedere ulteriori informazioni oppure scriviti alla casella di posta [email protected]
Internet è la fonte su cui vengono formati questi modelli linguistici. In altre parole, sempre di più le IA “consumeranno” se stesse. L’intelligenza artificiale inizierà ad apprendere da dati errati fino a quando tutto ciò che produrrà sarà assurdo o frutto di allucinazione per compensare a informazioni mancanti.
Questo è ciò che i ricercatori dell’intelligenza artificiale chiamano “collasso del modello”. Uno studio recente ha utilizzato un modello linguistico per generare testo sull’architettura inglese. Dopo aver addestrato più volte l’IA su questo test sintetico, la risposta del decimo modello era completamente priva di significato.
Per addestrare in modo efficace i nuovi modelli di intelligenza artificiale, le aziende hanno bisogno di dati che non vengano danneggiati da informazioni generate i modo sintetico.
Alex Dimakis, co-direttore del National AI Institute for the Foundations of Machine Learning, afferma che una piccola raccolta di dati di alta qualità può sovraperformare rispetto ad una grande raccolta di dati sintetici. Per ora, gli ingegneri devono vagliare i dati per assicurarsi che l’intelligenza artificiale non impari dai dati sintetici che ha creato da sola.
Gli analisti di Binarly hanno trovato almeno 35 immagini su Docker Hub ancora infette da una backdoor che ha penetrato xz Utils l’anno scorso. I ricercatori hanno avvertito che questo potrebbe ...
Tre gravi vulnerabilità di Microsoft Office, che potrebbero permettere agli aggressori di eseguire codice remoto sui sistemi colpiti, sono state risolte da Microsoft con il rilascio di aggiorname...
Dalle macchine che apprendono a quelle che si auto migliorano: il salto evolutivo che sta riscrivendo il codice del futuro Mentre leggete questo articolo, molto probabilmente, in un data center del mo...
Trend Micro ha rilevato un attacco mirato ai settori governativo e aeronautico in Medio Oriente, utilizzando un nuovo ransomware chiamato Charon. Gli aggressori hanno utilizzato una complessa catena d...
Diversi prodotti di sicurezza Fortinet, tra cui FortiOS, FortiProxy e FortiPAM, sono interessati da una vulnerabilità di evasione dell’autenticazione di alta gravità. La falla, monito...