
La società OpenAI, che ha realizzato ChatGPT ha annunciato oggi il lancio di un nuovo programma di bug bounty per consentire ai ricercatori di sicurezza registrati di scoprire le vulnerabilità nella sua linea di prodotti e di essere pagati per segnalarli tramite la piattaforma di sicurezza crowdsourcing Bugcrowd.
We're launching the OpenAI Bug Bounty Program — earn cash awards for finding & responsibly reporting security vulnerabilities. https://t.co/p1I3ONzFJK
— OpenAI (@OpenAI) April 11, 2023
Come ha rivelato la società, i premi si basano come di consueto sulla gravità e sull’impatto dei bug segnalati e vanno da 200 dollari per difetti di sicurezza di bassa gravità fino a 20.000 dollari per scoperte eccezionali.
Il tutto è stato veicolato tramite la piattaforma di Bug Bounty “Bug crowd” dove l’azienda riporta quanto segue: “Il programma OpenAI Bug Bounty è un modo per riconoscere e premiare le preziose intuizioni dei ricercatori di sicurezza che contribuiscono a proteggere la nostra tecnologia e la nostra azienda. Ti invitiamo a segnalare vulnerabilità, bug o difetti di sicurezza che scopri nei nostri sistemi. Condividendo le tue scoperte, giocherai un ruolo cruciale nel rendere la nostra tecnologia più sicura per tutti.”
Tuttavia, mentre l‘API (Application Programming Interface) di OpenAI e il suo chatbot di intelligenza artificiale ChatGPT sono bersagli già conclamati nell’ambito dei cacciatori di bug, la società ha chiesto ai ricercatori di segnalare i problemi del modello tramite un modulo separato a meno che non siano problemi di sicurezza.
“I problemi di sicurezza del modello non si adattano bene all’interno di un programma di bug bounty, in quanto non sono bug individuali e discreti che possono essere risolti direttamente. Affrontare questi problemi spesso richiede ricerche sostanziali e un approccio più ampio”, ha affermato OpenAI.
“Per garantire che queste problematiche vengano risolte, si prega di segnalarle utilizzando il modulo appropriato, piuttosto che inviarle tramite il programma bug bounty. Segnalarle nel posto giusto consente ai nostri ricercatori di utilizzare queste segnalazioni per migliorare il modello.”
Altri problemi che non rientrano nell’ambito includono jailbreak e bypass di sicurezza che gli utenti di ChatGPT hanno sfruttato per indurre il chatbot a ignorare le misure di sicurezza implementate dagli ingegneri di OpenAI.
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

InnovazioneL’evoluzione dell’Intelligenza Artificiale ha superato una nuova, inquietante frontiera. Se fino a ieri parlavamo di algoritmi confinati dietro uno schermo, oggi ci troviamo di fronte al concetto di “Meatspace Layer”: un’infrastruttura dove le macchine non…
CybercrimeNegli ultimi anni, la sicurezza delle reti ha affrontato minacce sempre più sofisticate, capaci di aggirare le difese tradizionali e di penetrare negli strati più profondi delle infrastrutture. Un’analisi recente ha portato alla luce uno…
VulnerabilitàNegli ultimi tempi, la piattaforma di automazione n8n sta affrontando una serie crescente di bug di sicurezza. n8n è una piattaforma di automazione che trasforma task complessi in operazioni semplici e veloci. Con pochi click…
InnovazioneArticolo scritto con la collaborazione di Giovanni Pollola. Per anni, “IA a bordo dei satelliti” serviva soprattutto a “ripulire” i dati: meno rumore nelle immagini e nei dati acquisiti attraverso i vari payload multisensoriali, meno…
Cyber ItaliaNegli ultimi giorni è stato segnalato un preoccupante aumento di truffe diffuse tramite WhatsApp dal CERT-AGID. I messaggi arrivano apparentemente da contatti conosciuti e richiedono urgentemente denaro, spesso per emergenze come spese mediche improvvise. La…