
A meno di un anno dalla sua fulminea ascesa, la società dietro ChatGPT ha svelato lunedì il futuro che ha in mente per la sua tecnologia di intelligenza artificiale, lanciando una nuova linea di prodotti chatbot che possono essere personalizzati per una varietà di attività.
“Alla fine, chiederai semplicemente al computer ciò di cui hai bisogno e lui farà tutte queste attività per te”, ha detto Sam Altman, CEO di OpenAI, a una folla esultante di oltre 900 sviluppatori di software e altri partecipanti. È stata la conferenza inaugurale degli sviluppatori di OpenAI, che abbracciava una tradizione all’interno della Silicon Valley per le vetrine tecnologiche di cui Apple ha contribuito a essere pioniere molti anni fa.
All’evento tenutosi in una cavernosa ex concessionaria Honda a San Francisco, città natale di OpenAI, la società ha presentato una nuova versione chiamata GPT-4 Turbo che, a suo dire, è più capace e può recuperare informazioni su eventi mondiali e culturali recenti fino ad aprile 2023, a differenza di versioni precedenti che non potevano rispondere a domande su nulla dopo il 2021.
Ha inoltre pubblicizzato una nuova versione del suo modello di intelligenza artificiale chiamata GPT-4 with vision, o GPT-4V, che consente al chatbot di analizzare le immagini. In un documento di ricerca di settembre, l’azienda ha mostrato come lo strumento potrebbe descrivere cosa c’è nelle immagini a persone non vedenti o ipovedenti. ChatGPT ha più di 100 milioni di utenti attivi settimanali e 2 milioni di sviluppatori, diffusi “interamente con il passaparola”, ha affermato Altman.
Ha anche presentato una nuova linea di prodotti chiamati GPT che consentiranno agli utenti di creare le proprie versioni personalizzate di ChatGPT per attività specifiche. Alyssa Hwang, ricercatrice informatica presso l’Università della Pennsylvania che ha avuto un primo assaggio dello strumento di visione GPT, ha affermato che è “così efficace nel descrivere un sacco di diversi tipi di immagini, non importa quanto complicate fossero”, ma necessitava di alcuni miglioramenti.
Ad esempio, nel tentativo di testare i suoi limiti, Hwang ha aggiunto un’immagine di bistecca con una didascalia sulla zuppa di noodle al pollo, confondendo il chatbot facendogli descrivere l’immagine come qualcosa a che fare con la zuppa di noodle al pollo.
“Ciò potrebbe portare ad alcuni attacchi avversari”, ha detto Hwang. “Immagina se metti del testo offensivo o qualcosa del genere in un’immagine, finirai per ottenere qualcosa che non desideri.”
Questo è in parte il motivo per cui OpenAI ha concesso a ricercatori come Hwang un accesso anticipato per aiutare a scoprire i difetti nei suoi strumenti più recenti prima del loro rilascio su vasta scala. Lunedì Altman ha descritto l’approccio dell’azienda come “implementazione iterativa graduale” che lascia il tempo per affrontare i rischi per la sicurezza.
Il percorso verso il DevDay di debutto di OpenAI è stato insolito. Fondato come istituto di ricerca senza scopo di lucro nel 2015, è diventato famoso in tutto il mondo poco meno di un anno fa con il rilascio di un chatbot che ha suscitato entusiasmo, paura del rapido progresso dell’intelligenza artificiale.
La conferenza arriva una settimana dopo che il presidente Joe Biden ha firmato un ordine esecutivo che stabilirà alcuni dei primi guardrail statunitensi sulla tecnologia dell’intelligenza artificiale. Utilizzando il Defense Production Act, l’ordine richiede agli sviluppatori di intelligenza artificiale che probabilmente includono OpenAI, il suo finanziatore Microsoft e concorrenti come Google e Meta di condividere informazioni con il governo sui sistemi di intelligenza artificiale costruiti con “livelli di prestazioni così elevati” da poter rappresentare gravi rischi per la sicurezza.
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

InnovazioneL’intelligenza artificiale è entrata nel lavoro senza bussare. Non come una rivoluzione urlata, ma come una presenza costante, quasi banale a forza di ripetersi. Ha cambiato il modo in cui le persone lavorano, sì, ma…
CybercrimeUna nuova minaccia si aggira, usando la nostra più grande debolezza: l’abitudine. Quante volte, infatti, capita di ritrovarsi a cliccare su caselle di verifica senza pensarci due volte? Ora, pare che i malintenzionati abbiano creato…
CybercrimeLa falla di sicurezza in WinRAR, emersa durante la scorsa estate, ha mostrato una diffusione maggiore rispetto alle aspettative. Diverse organizzazioni, sia criminali comuni che gruppi APT finanziati da nazioni, stanno sfruttando attivamente questa vulnerabilità,…
CybercrimeIl forum RAMP (Russian Anonymous Marketplace), uno dei principali punti di riferimento del cybercrime underground internazionale, è stato ufficialmente chiuso e sequestrato dalle forze dell’ordine statunitensi. La notizia è emersa dopo che il dominio associato…
DirittiOggi è il 28 gennaio e, come ogni anno da un bel po’ di tempo a questa parte, ci ritroviamo a celebrare la Giornata europea della protezione dei dati. È una roba che nasce nel…