Redazione RHC : 23 Ottobre 2023 07:52
I contenuti generati dall’intelligenza artificiale stanno iniziando a riempire Internet e questa potrebbe essere una brutta notizia per i futuri modelli di intelligenza artificiale. Come sappiamo, i modelli linguistici come ChatGPT vengono formati dai contenuti trovati su Internet.
Poiché l’intelligenza artificiale crea contenuti più “sintetici”, potrebbe sorgere un problema ingegneristico noto come “collasso del modello”. Il filtraggio dei dati sintetici dai modelli di addestramento sta diventando un’importante area di ricerca e probabilmente crescerà man mano che i contenuti dell’intelligenza artificiale popoleranno Internet.
Il simbolo di “Uroboros”, raffigura un serpente che inghiotte la propria coda. Nell’era dell’intelligenza artificiale, questo simbolismo assume un significato nuovo e toccante. Quando i contenuti editoriali generati dai modelli linguistici dell’intelligenza artificiale iniziano a popolare Internet, purtroppo contengono molti errori.
Iscriviti GRATIS ai WorkShop Hands-On della RHC Conference 2025 (Giovedì 8 maggio 2025)
Il giorno giovedì 8 maggio 2025 presso il teatro Italia di Roma (a due passi dalla stazione termini e dalla metro B di Piazza Bologna), si terranno i workshop "hands-on", creati per far avvicinare i ragazzi (o persone di qualsiasi età) alla sicurezza informatica e alla tecnologia. Questo anno i workshop saranno:
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
Internet è la fonte su cui vengono formati questi modelli linguistici. In altre parole, sempre di più le IA “consumeranno” se stesse. L’intelligenza artificiale inizierà ad apprendere da dati errati fino a quando tutto ciò che produrrà sarà assurdo o frutto di allucinazione per compensare a informazioni mancanti.
Questo è ciò che i ricercatori dell’intelligenza artificiale chiamano “collasso del modello”. Uno studio recente ha utilizzato un modello linguistico per generare testo sull’architettura inglese. Dopo aver addestrato più volte l’IA su questo test sintetico, la risposta del decimo modello era completamente priva di significato.
Per addestrare in modo efficace i nuovi modelli di intelligenza artificiale, le aziende hanno bisogno di dati che non vengano danneggiati da informazioni generate i modo sintetico.
Alex Dimakis, co-direttore del National AI Institute for the Foundations of Machine Learning, afferma che una piccola raccolta di dati di alta qualità può sovraperformare rispetto ad una grande raccolta di dati sintetici. Per ora, gli ingegneri devono vagliare i dati per assicurarsi che l’intelligenza artificiale non impari dai dati sintetici che ha creato da sola.
Una nuova campagna di phishing sta circolando in queste ore con un obiettivo ben preciso: spaventare le vittime con la minaccia di una multa stradale imminente e gonfiata, apparentemente proveniente d...
Negli ultimi giorni, NS Power, una delle principali aziende elettriche canadesi, ha confermato di essere stata vittima di un attacco informatico e ha pubblicato degli update all’interno della H...
1° Maggio, un giorno per onorare chi lavora, chi lotta per farlo in modo dignitoso e chi, troppo spesso, perde la vita mentre svolge la propria mansione. Nel 2025, l’Italia continua a pian...
Domani celebreremo uno degli elementi più iconici – e al tempo stesso vulnerabili – della nostra vita digitale: la password. Da semplice chiave d’accesso inventata negli anni...
Ci sono luoghi nel web dove la normalità cede il passo all’illecito, dove l’apparenza di un marketplace moderno e funzionale si trasforma in una vetrina globale per ogni tipo di rea...
Copyright @ REDHOTCYBER Srl
PIVA 17898011006