Redazione RHC : 23 Ottobre 2023 07:52
I contenuti generati dall’intelligenza artificiale stanno iniziando a riempire Internet e questa potrebbe essere una brutta notizia per i futuri modelli di intelligenza artificiale. Come sappiamo, i modelli linguistici come ChatGPT vengono formati dai contenuti trovati su Internet.
Poiché l’intelligenza artificiale crea contenuti più “sintetici”, potrebbe sorgere un problema ingegneristico noto come “collasso del modello”. Il filtraggio dei dati sintetici dai modelli di addestramento sta diventando un’importante area di ricerca e probabilmente crescerà man mano che i contenuti dell’intelligenza artificiale popoleranno Internet.
Il simbolo di “Uroboros”, raffigura un serpente che inghiotte la propria coda. Nell’era dell’intelligenza artificiale, questo simbolismo assume un significato nuovo e toccante. Quando i contenuti editoriali generati dai modelli linguistici dell’intelligenza artificiale iniziano a popolare Internet, purtroppo contengono molti errori.
Cybersecurity Awareness per la tua azienda? Scopri BETTI RHC!Sei un'azienda innovativa, che crede nella diffusione di concetti attraverso metodi "non convenzionali"? Red hot cyber ha sviluppato da diversi anni una Graphic Novel, l'unica nel suo genere nel mondo, che consente di formare i dipendenti sulla sicurezza informatica attraverso la lettura di un fumetto. Scopri di più sul corso a fumetti di Red Hot Cyber. Contattaci tramite WhatsApp al numero 375 593 1011 per richiedere ulteriori informazioni oppure alla casella di posta [email protected]
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Internet è la fonte su cui vengono formati questi modelli linguistici. In altre parole, sempre di più le IA “consumeranno” se stesse. L’intelligenza artificiale inizierà ad apprendere da dati errati fino a quando tutto ciò che produrrà sarà assurdo o frutto di allucinazione per compensare a informazioni mancanti.
Questo è ciò che i ricercatori dell’intelligenza artificiale chiamano “collasso del modello”. Uno studio recente ha utilizzato un modello linguistico per generare testo sull’architettura inglese. Dopo aver addestrato più volte l’IA su questo test sintetico, la risposta del decimo modello era completamente priva di significato.
Per addestrare in modo efficace i nuovi modelli di intelligenza artificiale, le aziende hanno bisogno di dati che non vengano danneggiati da informazioni generate i modo sintetico.
Alex Dimakis, co-direttore del National AI Institute for the Foundations of Machine Learning, afferma che una piccola raccolta di dati di alta qualità può sovraperformare rispetto ad una grande raccolta di dati sintetici. Per ora, gli ingegneri devono vagliare i dati per assicurarsi che l’intelligenza artificiale non impari dai dati sintetici che ha creato da sola.
L’azienda cinese “Unitree Robotics” ha sfidato il primato della robotica statunitense con il lancio del suo umanoide H2 “Destiny Awakening”. L’umanoide unisce la forma umana a movimenti so...
Il 20 ottobre 2025 segna un anniversario importante per la storia dell’informatica: il processore Intel 80386, noto anche come i386, celebra il suo 40° compleanno. Ed è un compleanno importante! L...
A prima vista, l’email sembrava impeccabile. Un promemoria di pagamento di PagoPA, ben strutturato, con linguaggio formale, riferimenti al Codice della Strada e persino un bottone blu “Accedi al P...
I ricercatori di VUSec hanno presentato un articolo intitolato “Training Solo”, che mette in discussione i principi fondamentali della protezione contro gli attacchi Spectre-v2. In precedenza si r...
La corsa alla supremazia quantistica si sta trasformando in una corsa alla sopravvivenza delle criptovalute. Se i computer quantistici raggiungeranno la potenza promessa, saranno in grado di violare l...