
Redazione RHC : 7 Maggio 2023 09:51
Gli scienziati della Stanford University in un loro lavoro hanno affermato che è troppo presto per considerare i grandi modelli linguistici come un “gigantesco salto di opportunità”. Secondo gli esperti, le capacità di sviluppo dell’intelligenza artificiale sono un’illusione delle persone che ci lavorano.
I ricercatori ritengono che quando si analizzano i risultati di un modello per un’attività particolare, una persona possa scegliere una metrica che porti alla conclusione di “superpotere AI o un’altra metrica che non lo fa”.
Gli scienziati di Stanford hanno studiato i risultati del lavoro con GPT-3 e hanno scoperto che i superpoteri nell’intelligenza artificiale compaiono solo quando vengono utilizzate determinate metriche.
Prova la Demo di Business Log! Adaptive SOC italiano Log management non solo per la grande Azienda, ma una suite di Audit file, controllo USB, asset, sicurezza e un Security Operation Center PERSONALE, che ti riporta tutte le operazioni necessarie al tuo PC per tutelare i tuoi dati e informati in caso di problemi nel tuo ambiente privato o di lavoro.
Scarica ora la Demo di Business Log per 30gg
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
La scelta di una dimensione “non lineare” o “discontinua” può portare a quello che sembra essere un cambiamento brusco e imprevedibile, che viene poi erroneamente considerato un’abilità emergente.
In effetti, la curva delle prestazioni è andata crescendo gradualmente per tutto questo tempo, senza fare “salti da gigante”. Quando i ricercatori hanno cambiato la misurazione dei risultati da una metrica non lineare a una lineare, lo sviluppo del modello è diventato prevedibile e fluido, escludendo le abilità emergenti.
Ad esempio, l’abilità GPT-3 è stata assegnata per eseguire compiti aritmetici con numeri interi, vale a dire l’aggiunta di due numeri interi a cinque cifre. Secondo i ricercatori, molte persone credono che i piccoli modelli non possano svolgere tale compito. Ma dopo aver raggiunto una certa scala, l’intelligenza artificiale è improvvisamente diventata brava ad aggiungere numeri. Questo dà motivo di preoccupazione.
Ad esempio, potresti avere un modello che “si comporta bene ed è affidabile”, ma se addestri un altro modello con molti dati o molti parametri, può diventare tossico, fuorviante o dannoso in modo imprevedibile.
Gli scienziati hanno notato che non esiste un enorme salto di opportunità. Quando gli esperti hanno rivisto le metriche utilizzate per la valutazione, hanno scoperto che i modelli linguistici espandono le loro capacità in modo graduale e prevedibile.
Redazione
Nel mese di Settembre è uscita una nuova vulnerabilità che riguarda Notepad++. La vulnerabilità è stata identificata con la CVE-2025-56383 i dettagli possono essere consultati nel sito del NIST. L...

Gli aggressori stanno utilizzando una tecnica avanzata che implica il caricamento laterale di DLL tramite l’applicazione Microsoft OneDrive. In questo modo riescono ad eseguire codice malevolo senza...

I ladri sono entrati attraverso una finestra del secondo piano del Musée du Louvre, ma il museo aveva avuto anche altri problemi oltre alle finestre non protette, secondo un rapporto di audit sulla s...

Reuters ha riferito che Trump ha detto ai giornalisti durante un’intervista preregistrata nel programma “60 Minutes” della CBS e sull’Air Force One durante il viaggio di ritorno: “I chip pi�...

Il primo computer quantistico atomico cinese ha raggiunto un importante traguardo commerciale, registrando le sue prime vendite a clienti nazionali e internazionali, secondo quanto riportato dai media...