
Gli scienziati della Stanford University in un loro lavoro hanno affermato che è troppo presto per considerare i grandi modelli linguistici come un “gigantesco salto di opportunità”. Secondo gli esperti, le capacità di sviluppo dell’intelligenza artificiale sono un’illusione delle persone che ci lavorano.
I ricercatori ritengono che quando si analizzano i risultati di un modello per un’attività particolare, una persona possa scegliere una metrica che porti alla conclusione di “superpotere AI o un’altra metrica che non lo fa”.
Gli scienziati di Stanford hanno studiato i risultati del lavoro con GPT-3 e hanno scoperto che i superpoteri nell’intelligenza artificiale compaiono solo quando vengono utilizzate determinate metriche.
Avvio delle iscrizioni al corso Cyber Offensive Fundamentals Vuoi smettere di guardare tutorial e iniziare a capire davvero come funziona la sicurezza informatica? La base della sicurezza informatica, al di là di norme e tecnologie, ha sempre un unico obiettivo: fermare gli attacchi dei criminali informatici. Pertanto "Pensa come un attaccante, agisci come un difensore". Ti porteremo nel mondo dell'ethical hacking e del penetration test come nessuno ha mai fatto prima. Per informazioni potete accedere alla pagina del corso oppure contattarci tramite WhatsApp al numero 379 163 8765 oppure scrivendoci alla casella di posta [email protected].
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
La scelta di una dimensione “non lineare” o “discontinua” può portare a quello che sembra essere un cambiamento brusco e imprevedibile, che viene poi erroneamente considerato un’abilità emergente.
In effetti, la curva delle prestazioni è andata crescendo gradualmente per tutto questo tempo, senza fare “salti da gigante”. Quando i ricercatori hanno cambiato la misurazione dei risultati da una metrica non lineare a una lineare, lo sviluppo del modello è diventato prevedibile e fluido, escludendo le abilità emergenti.
Ad esempio, l’abilità GPT-3 è stata assegnata per eseguire compiti aritmetici con numeri interi, vale a dire l’aggiunta di due numeri interi a cinque cifre. Secondo i ricercatori, molte persone credono che i piccoli modelli non possano svolgere tale compito. Ma dopo aver raggiunto una certa scala, l’intelligenza artificiale è improvvisamente diventata brava ad aggiungere numeri. Questo dà motivo di preoccupazione.
Ad esempio, potresti avere un modello che “si comporta bene ed è affidabile”, ma se addestri un altro modello con molti dati o molti parametri, può diventare tossico, fuorviante o dannoso in modo imprevedibile.
Gli scienziati hanno notato che non esiste un enorme salto di opportunità. Quando gli esperti hanno rivisto le metriche utilizzate per la valutazione, hanno scoperto che i modelli linguistici espandono le loro capacità in modo graduale e prevedibile.
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

VulnerabilitàI ricercatori del team di Sicurezza Informatica e Crittografia Industriale della KU Leuven hanno scoperto una falla critica nel protocollo Google Fast Pair. La vulnerabilità consente agli aggressori di dirottare il controllo di milioni di…
CyberpoliticaNel mese di novembre il Servizio di Sicurezza britannico (MI5) ha inviato un avviso riservato a parlamentari e membri del loro staff per segnalare un’operazione di cyber-spionaggio riconducibile ad attori legati ai servizi segreti cinesi…
CybercrimeLe moderne funzioni di analisi automatica dei contenuti multimediali stanno modificando in profondità il modello di sicurezza degli smartphone. In particolare, la capacità dei dispositivi di elaborare allegati audio in modo proattivo, senza alcuna interazione…
CulturaMandiant ha reso pubblico un ampio set di tabelle rainbow dedicate a Net-NTLMv1 con l’obiettivo di dimostrare in modo concreto quanto questo protocollo di autenticazione sia ormai insicuro. Nonostante Net-NTLMv1 sia deprecato da anni e…
CybercrimeQuando si parla di cybersecurity, non è raro imbattersi in notizie che sembrano prese da un film di fantascienza. Eppure, la realtà è ancora più sorprendente e a volte inquietante. La storia dei due cittadini…