Gli sviluppatori di plugin di terze parti per OpenAI ChatGPT dovranno fare attenzione, poiché ricercatori di sicurezza hanno scoperto che tali plugin potrebbero rappresentare una nuova superficie di attacco per i criminali informatici desiderosi di ottenere accesso non autorizzato a dati sensibili. Secondo una ricerca condotta dal team di Salt Labs, sono state individuate delle vulnerabilità sia direttamente in ChatGPT sia nell’ecosistema circostante, che potrebbero consentire agli attaccanti di installare plugin malevoli senza il consenso degli utenti e di prendere il controllo di account su siti web di terze parti come GitHub.
I plugin di ChatGPT sono strumenti progettati per funzionare su un grande modello di linguaggio (LLM) con lo scopo di accedere a informazioni aggiornate, eseguire calcoli o accedere a servizi di terze parti. Tuttavia, sfruttando determinate vulnerabilità, i criminali informatici potrebbero ingannare gli utenti e installare plugin arbitrari, permettendo loro di intercettare ed estrarre tutti i dati condivisi dalla vittima, che potrebbero includere informazioni proprietarie.
Salt Labs ha anche scoperto problemi con PluginLab che potrebbero essere sfruttati da attori minacciosi per condurre attacchi di takeover dell’account senza la necessità di cliccare, consentendo loro di ottenere il controllo dell’account di un’organizzazione su siti web di terze parti come GitHub e accedere ai repository del codice sorgente. Gli attaccanti possono ottenere un codice che rappresenta la vittima manipolando l’endpoint “auth.pluginlab[.]ai/members/requestMagicEmailCode”. Inoltre, sono stati individuati bug di manipolazione del reindirizzamento di OAuth in diversi plugin, tra cui Kesem AI, che potrebbero permettere a un attaccante di rubare le credenziali dell’account associato al plugin stesso.
È importante notare che OpenAI ha preso provvedimenti per mitigare questi rischi. A partire dal 19 marzo 2024, gli utenti di ChatGPT non potranno più installare nuovi plugin o creare nuove conversazioni con plugin esistenti. Tuttavia, è fondamentale che gli utenti siano consapevoli di queste vulnerabilità e prendano le precauzioni necessarie per proteggere i propri dati. Inoltre, è consigliabile che gli sviluppatori di plugin di terze parti per ChatGPT adottino misure di sicurezza adeguate a evitare abusi o compromissioni dei loro plugin.
Questa scoperta arriva in seguito all’identificazione di altre vulnerabilità nella sicurezza di ChatGPT, come descritte da Imperva, che hanno evidenziato due vulnerabilità cross-site scripting (XSS) che potrebbero essere sfruttate per assumere il controllo di qualsiasi account. È importante che gli sviluppatori di ChatGPT e le organizzazioni coinvolte continuino a lavorare per identificare e risolvere tali vulnerabilità, al fine di garantire la sicurezza degli utenti e dei loro dati.
In conclusione, la scoperta di vulnerabilità nei plugin di terze parti di ChatGPT evidenzia l’importanza di affrontare attentamente la sicurezza nei sistemi di intelligenza artificiale. Gli sviluppatori e gli utenti devono essere consapevoli di tali rischi e prendere le misure necessarie per proteggere i propri dati e i propri account. La sicurezza deve essere una priorità in tutte le fasi dello sviluppo e dell’utilizzo di tali tecnologie, al fine di prevenire attacchi e compromissioni indesiderate.
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

InnovazioneL’evoluzione dell’Intelligenza Artificiale ha superato una nuova, inquietante frontiera. Se fino a ieri parlavamo di algoritmi confinati dietro uno schermo, oggi ci troviamo di fronte al concetto di “Meatspace Layer”: un’infrastruttura dove le macchine non…
CybercrimeNegli ultimi anni, la sicurezza delle reti ha affrontato minacce sempre più sofisticate, capaci di aggirare le difese tradizionali e di penetrare negli strati più profondi delle infrastrutture. Un’analisi recente ha portato alla luce uno…
VulnerabilitàNegli ultimi tempi, la piattaforma di automazione n8n sta affrontando una serie crescente di bug di sicurezza. n8n è una piattaforma di automazione che trasforma task complessi in operazioni semplici e veloci. Con pochi click…
InnovazioneArticolo scritto con la collaborazione di Giovanni Pollola. Per anni, “IA a bordo dei satelliti” serviva soprattutto a “ripulire” i dati: meno rumore nelle immagini e nei dati acquisiti attraverso i vari payload multisensoriali, meno…
Cyber ItaliaNegli ultimi giorni è stato segnalato un preoccupante aumento di truffe diffuse tramite WhatsApp dal CERT-AGID. I messaggi arrivano apparentemente da contatti conosciuti e richiedono urgentemente denaro, spesso per emergenze come spese mediche improvvise. La…