
Redazione RHC : 7 Novembre 2023 11:16
A meno di un anno dalla sua fulminea ascesa, la società dietro ChatGPT ha svelato lunedì il futuro che ha in mente per la sua tecnologia di intelligenza artificiale, lanciando una nuova linea di prodotti chatbot che possono essere personalizzati per una varietà di attività.
“Alla fine, chiederai semplicemente al computer ciò di cui hai bisogno e lui farà tutte queste attività per te”, ha detto Sam Altman, CEO di OpenAI, a una folla esultante di oltre 900 sviluppatori di software e altri partecipanti. È stata la conferenza inaugurale degli sviluppatori di OpenAI, che abbracciava una tradizione all’interno della Silicon Valley per le vetrine tecnologiche di cui Apple ha contribuito a essere pioniere molti anni fa.
All’evento tenutosi in una cavernosa ex concessionaria Honda a San Francisco, città natale di OpenAI, la società ha presentato una nuova versione chiamata GPT-4 Turbo che, a suo dire, è più capace e può recuperare informazioni su eventi mondiali e culturali recenti fino ad aprile 2023, a differenza di versioni precedenti che non potevano rispondere a domande su nulla dopo il 2021.
Sponsorizza la prossima Red Hot Cyber Conference! Il giorno Lunedì 18 maggio e martedì 19 maggio 2026 9 maggio 2026, presso il teatro Italia di Roma (a due passi dalla stazione termini e dalla metro B di Piazza Bologna), si terrà la V edizione della la RHC Conference. Si tratta dell’appuntamento annuale gratuito, creato dalla community di RHC, per far accrescere l’interesse verso le tecnologie digitali, l’innovazione digitale e la consapevolezza del rischio informatico. Se sei interessato a sponsorizzare l'evento e a rendere la tua azienda protagonista del più grande evento della Cybersecurity Italiana, non perdere questa opportunità. E ricorda che assieme alla sponsorizzazione della conferenza, incluso nel prezzo, avrai un pacchetto di Branding sul sito di Red Hot Cyber composto da Banner più un numero di articoli che saranno ospitati all'interno del nostro portale. Quindi cosa stai aspettando? Scrivici subito a [email protected] per maggiori informazioni e per accedere al programma sponsor e al media Kit di Red Hot Cyber.
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Ha inoltre pubblicizzato una nuova versione del suo modello di intelligenza artificiale chiamata GPT-4 with vision, o GPT-4V, che consente al chatbot di analizzare le immagini. In un documento di ricerca di settembre, l’azienda ha mostrato come lo strumento potrebbe descrivere cosa c’è nelle immagini a persone non vedenti o ipovedenti. ChatGPT ha più di 100 milioni di utenti attivi settimanali e 2 milioni di sviluppatori, diffusi “interamente con il passaparola”, ha affermato Altman.
Ha anche presentato una nuova linea di prodotti chiamati GPT che consentiranno agli utenti di creare le proprie versioni personalizzate di ChatGPT per attività specifiche. Alyssa Hwang, ricercatrice informatica presso l’Università della Pennsylvania che ha avuto un primo assaggio dello strumento di visione GPT, ha affermato che è “così efficace nel descrivere un sacco di diversi tipi di immagini, non importa quanto complicate fossero”, ma necessitava di alcuni miglioramenti.
Ad esempio, nel tentativo di testare i suoi limiti, Hwang ha aggiunto un’immagine di bistecca con una didascalia sulla zuppa di noodle al pollo, confondendo il chatbot facendogli descrivere l’immagine come qualcosa a che fare con la zuppa di noodle al pollo.
“Ciò potrebbe portare ad alcuni attacchi avversari”, ha detto Hwang. “Immagina se metti del testo offensivo o qualcosa del genere in un’immagine, finirai per ottenere qualcosa che non desideri.”
Questo è in parte il motivo per cui OpenAI ha concesso a ricercatori come Hwang un accesso anticipato per aiutare a scoprire i difetti nei suoi strumenti più recenti prima del loro rilascio su vasta scala. Lunedì Altman ha descritto l’approccio dell’azienda come “implementazione iterativa graduale” che lascia il tempo per affrontare i rischi per la sicurezza.
Il percorso verso il DevDay di debutto di OpenAI è stato insolito. Fondato come istituto di ricerca senza scopo di lucro nel 2015, è diventato famoso in tutto il mondo poco meno di un anno fa con il rilascio di un chatbot che ha suscitato entusiasmo, paura del rapido progresso dell’intelligenza artificiale.
La conferenza arriva una settimana dopo che il presidente Joe Biden ha firmato un ordine esecutivo che stabilirà alcuni dei primi guardrail statunitensi sulla tecnologia dell’intelligenza artificiale. Utilizzando il Defense Production Act, l’ordine richiede agli sviluppatori di intelligenza artificiale che probabilmente includono OpenAI, il suo finanziatore Microsoft e concorrenti come Google e Meta di condividere informazioni con il governo sui sistemi di intelligenza artificiale costruiti con “livelli di prestazioni così elevati” da poter rappresentare gravi rischi per la sicurezza.
Redazione
Il CERT-AGID ha rilevato recentemente una sofisticata campagna di phishing mirato che sta prendendo di mira gli studenti dell’Università di Padova (UniPd). L’operazione, ancora in corso, sfrutta ...

Gli esperti del Group-IB hanno presentato un’analisi dettagliata della lunga campagna di UNC2891, che ha dimostrato la continua sofisticatezza degli schemi di attacco agli sportelli bancomat. L’at...

L’azienda israeliana NSO Group ha presentato ricorso contro una decisione di un tribunale federale della California che le vieta di utilizzare l’infrastruttura di WhatsApp per diffondere il softwa...

Una vulnerabilità, contrassegnata come CVE-2025-61757, è stata resa pubblica Searchlight Cyber giovedì scorso. I ricercatori dell’azienda hanno individuato il problema e hanno informato Oracle, c...

Negli ultimi mesi il problema degli insider sta assumendo un peso sempre più crescente per le grandi aziende, e un episodio ha coinvolto recentemente CrowdStrike. La società di cybersecurity ha infa...