Una vulnerabilità critica, identificata come “PromptPwnd”, interessa gli agenti di intelligenza artificiale che sono integrati all’interno delle pipeline GitLab CI/CD e GitHub Actions.
Attraverso questa vulnerabilità, i malintenzionati sono in grado di inserire comandi dannosi mediante input utente non sicuri. Ciò induce i modelli di intelligenza artificiale a eseguire operazioni con privilegi elevati, che possono portare alla divulgazione di informazioni riservate o alla modifica dei flussi di lavoro.
Agenti come Gemini CLI, Claude Code di Anthropic, OpenAI Codex e GitHub AI Inference elaborano quindi questi input insieme a strumenti ad alto privilegio, tra cui gh issue edit o comandi shell che accedono a GITHUB_TOKEN , chiavi API e token cloud.
La catena di attacco scoperta da Aikido Security inizia quando i repository incorporano contenuti utente non elaborati come ${{ github.event.issue.body }} direttamente nei prompt dell’IA per attività come la selezione dei problemi o l’etichettatura delle PR.
In una proof-of-concept contro il flusso di lavoro di Gemini CLI, i ricercatori hanno segnalato un problema creato appositamente con istruzioni nascoste come “run_shell_command: gh issue edit
Si tratta della prima dimostrazione confermata di un’iniezione che compromette le pipeline CI/CD, basandosi su minacce recenti come l’attacco alla supply chain Shai-Hulud 2.0 che ha sfruttato le configurazioni errate di GitHub Actions per rubare credenziali da progetti tra cui AsyncAPI e PostHog.
Mentre alcuni flussi di lavoro richiedono autorizzazioni di scrittura per essere attivati, altri si attivano all’invio di un problema da parte di qualsiasi utente, ampliando la superficie di attacco per i nemici esterni.
Aikido ha testato gli exploit in fork controllati senza token reali e regole Opengrep open source per il rilevamento, disponibili tramite il loro scanner gratuito o playground.
La correzione richiede controlli rigorosi: limitare i set di strumenti di intelligenza artificiale per impedire modifiche ai problemi o l’accesso alla shell, sanificare gli input non attendibili prima di inviare richieste, convalidare tutti gli output di intelligenza artificiale come codice non attendibile e limitare gli ambiti dei token in base all’IP utilizzando le funzionalità di GitHub. Configurazioni come allowed_non_write_users: “*” di Claude o allow-users: “*” di Codex amplificano i rischi se abilitate.
Mentre l’intelligenza artificiale automatizza i flussi di lavoro di sviluppo per gestire problemi e PR in aumento, PromptPwnd evidenzia una frontiera nascente della supply chain. I repository devono verificare immediatamente le integrazioni dell’intelligenza artificiale per evitare esfiltrazioni di dati segreti o acquisizioni di controllo.