
Redazione RHC : 23 Ottobre 2023 07:52
I contenuti generati dall’intelligenza artificiale stanno iniziando a riempire Internet e questa potrebbe essere una brutta notizia per i futuri modelli di intelligenza artificiale. Come sappiamo, i modelli linguistici come ChatGPT vengono formati dai contenuti trovati su Internet.
Poiché l’intelligenza artificiale crea contenuti più “sintetici”, potrebbe sorgere un problema ingegneristico noto come “collasso del modello”. Il filtraggio dei dati sintetici dai modelli di addestramento sta diventando un’importante area di ricerca e probabilmente crescerà man mano che i contenuti dell’intelligenza artificiale popoleranno Internet.
Il simbolo di “Uroboros”, raffigura un serpente che inghiotte la propria coda. Nell’era dell’intelligenza artificiale, questo simbolismo assume un significato nuovo e toccante. Quando i contenuti editoriali generati dai modelli linguistici dell’intelligenza artificiale iniziano a popolare Internet, purtroppo contengono molti errori.
Prova la Demo di Business Log! Adaptive SOC italiano Log management non solo per la grande Azienda, ma una suite di Audit file, controllo USB, asset, sicurezza e un Security Operation Center PERSONALE, che ti riporta tutte le operazioni necessarie al tuo PC per tutelare i tuoi dati e informati in caso di problemi nel tuo ambiente privato o di lavoro.
Scarica ora la Demo di Business Log per 30gg
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Internet è la fonte su cui vengono formati questi modelli linguistici. In altre parole, sempre di più le IA “consumeranno” se stesse. L’intelligenza artificiale inizierà ad apprendere da dati errati fino a quando tutto ciò che produrrà sarà assurdo o frutto di allucinazione per compensare a informazioni mancanti.
Questo è ciò che i ricercatori dell’intelligenza artificiale chiamano “collasso del modello”. Uno studio recente ha utilizzato un modello linguistico per generare testo sull’architettura inglese. Dopo aver addestrato più volte l’IA su questo test sintetico, la risposta del decimo modello era completamente priva di significato.
Per addestrare in modo efficace i nuovi modelli di intelligenza artificiale, le aziende hanno bisogno di dati che non vengano danneggiati da informazioni generate i modo sintetico.
Alex Dimakis, co-direttore del National AI Institute for the Foundations of Machine Learning, afferma che una piccola raccolta di dati di alta qualità può sovraperformare rispetto ad una grande raccolta di dati sintetici. Per ora, gli ingegneri devono vagliare i dati per assicurarsi che l’intelligenza artificiale non impari dai dati sintetici che ha creato da sola.
Redazione
Molti di noi sono cresciuti con Hiroshi Shiba, di Jeeg robot d’acciaio che parlava con il defunto padre, il Professor Senjiro Shiba, scienziato e archeologo all’interno di un grande elaboratore. I...

Il traffico globale, come sanno i lettori di RHC, viaggia per la maggior parte sotto il mare. Secondo TeleGeography, istituto specializzato nelle telecomunicazioni, nel mondo sono attivi più di 530 s...

Un’analisi condotta negli ultimi mesi aveva evidenziato come l’evoluzione dei sistemi di intelligenza artificiale stesse raggiungendo un punto critico per la sicurezza informatica, con capacità r...

Gli aggressori stanno attivamente sfruttando una falla critica nel sistema di protezione delle applicazioni web FortiWeb (WAF) prodotto da Fortinet, che potrebbe essere utilizzata come mezzo per condu...

Su uno dei più noti forum russi per la compravendita di vulnerabilità e strumenti offensivi, il thread è arrivato come una normale inserzione commerciale, ma il contenuto è tutt’altro che banale...