Dei concorrenti che solitamente trainano il mercato in direzioni diverse si sono inaspettatamente uniti. E questa non è l’unica volta che accade. Ricordiamo un fatto simile quando i giganti della silicon Valley si unirono contro gli effetti del Foreign Intelligence Amendment Act (FISA).
I questo caso l’elemento scatenante è stato il conflitto tra Anthropic e il Pentagono.
L’azienda ha ricevuto supporto da OpenAI e dai dipendenti di Google, non tramite conversazioni private, ma ufficialmente, tramite un documento giudiziario. Per un settore in cui la concorrenza per clienti, contratti e influenza sulle regole del mercato è in atto, un’unione del genere sembra quasi un’anomalia.
Si tratta di un documento di questo tipo viene solitamente presentato da terze parti in causa quando desiderano esprimere la propria posizione e dimostrare che la controversia non coinvolge solo attore e convenuto. Quasi 40 dipendenti di OpenAI e Google hanno firmato la petizione, tra cui Jeff Dean, responsabile scientifico di Google e uno dei leader del team Gemini. Questo fatto da solo dimostra la portata della situazione: la controversia è andata oltre una semplice scaramuccia legale localizzata ed è diventata una questione che ha allarmato una parte significativa della comunità americana dell’intelligenza artificiale.
La causa nasce dalla decisione del Dipartimento della Difesa degli Stati Uniti di designare Anthropic come un rischio per la supply chain. Questa designazione impedisce di fatto alle agenzie federali e ai fornitori di utilizzare la tecnologia dell’azienda. Tali misure vengono in genere applicate ai fornitori stranieri considerati una minaccia per la sicurezza nazionale. In passato, questo approccio è stato utilizzato contro aziende cinesi come Huawei e ZTE. La situazione con Anthropic è piuttosto diversa, poiché riguarda uno sviluppatore di intelligenza artificiale americano.
È proprio per questo che la decisione del Pentagono ha provocato una reazione così nervosa.
Per il mercato, non è solo l’impatto su una singola azienda a contare, ma il precedente stesso. Se lo Stato può assegnare tale status a un attore nazionale senza una chiara spiegazione pubblica, l’intera logica dei rapporti tra Washington e le aziende private viene messa in discussione. Oggi, Anthropic è diventata il bersaglio; domani, uno strumento di pressione simile potrebbe apparire in altri conflitti.
Le tensioni sono emerse dopo che Anthropic si è rifiutata di consentire l’utilizzo della sua tecnologia per la sorveglianza di massa degli americani o per sistemi d’arma autonomi. Poco dopo la concessione della nuova designazione, il Dipartimento della Difesa ha concluso l’accordo con OpenAI. Questa sequenza di eventi non ha fatto che accrescere i sospetti sulla decisione dell’agenzia.
Gli autori della causa sostengono direttamente che il Pentagono avrebbe avuto a disposizione metodi molto più semplici per risolvere la controversia se fosse stato realmente insoddisfatto dei termini di servizio di Anthropic. In tal caso, le autorità avrebbero potuto semplicemente rescindere il contratto e selezionare un altro fornitore. Invece, l’azienda è stata etichettata come tale, il che ha portato il conflitto a un livello completamente diverso.
Un’etichetta del genere potrebbe avere un impatto sui futuri contratti federali, sui rapporti con gli appaltatori, sull’accesso ai progetti governativi e sulla percezione stessa dell’azienda all’interno del settore.
Se il meccanismo venisse applicato più ampiamente, il mercato diventerebbe rapidamente una nuova fonte di instabilità: qualsiasi posizione dura nei negoziati con il governo o il rifiuto di termini controversi potrebbe improvvisamente tradursi non solo nella perdita di un accordo, ma in un colpo sistemico per l’azienda.
Ancora una volta, il Pentagono non ha reso pubbliche le ragioni di questa decisione.
Le autorità, come affermato nel testo, citano valutazioni di intelligence classificate. Anthropic, da parte sua, sostiene che la decisione viola le procedure amministrative ed è stata presa in modo non trasparente. Questa mancanza di trasparenza è diventata un punto chiave del contendere. Quando un’accusa sembra seria ma il suo contenuto non viene reso noto, difendersi diventa molto più difficile.
Nella loro dichiarazione, OpenAI e i dipendenti di Google avvertono che questo sviluppo potrebbe cambiare non solo il destino di un’azienda, ma anche le interazioni dell’intero Stato con il settore dell’intelligenza artificiale. Ritengono che, se questo approccio dovesse consolidarsi, minerebbe la competitività scientifica e industriale degli Stati Uniti. Il motivo è chiaro: un mercato in cui un importante sviluppatore può essere di fatto escluso dall’ecosistema federale senza una chiara giustificazione pubblica diventa meno prevedibile per tutti gli altri partecipanti.
C’è un altro rischio che preoccupa i firmatari. Tali azioni potrebbero smorzare il dibattito interno del settore su come dovrebbe essere sviluppata l’IA e quali dovrebbero essere i limiti di ciò che è accettabile. Se un’azienda sa che abbandonare un’applicazione tecnologica controversa potrebbe comportare severe sanzioni governative, gli sviluppatori sono incentivati a discutere meno, a sollevare meno obiezioni e a formulare le proprie posizioni con maggiore cautela.
Il supporto ad Anthropic da parte dei ricercatori di aziende concorrenti è spiegato anche dalla reputazione dell’azienda. Molti nel settore la considerano un attore di spicco nel campo dell’intelligenza artificiale sicura. Il testo fa riferimento diretto al lavoro di Anthropic in ambiti come l’intelligenza artificiale costituzionale, un approccio in cui un modello viene messo a punto sulla base di un insieme predeterminato di principi e vincoli.
La vicenda che coinvolge Anthropic, il Pentagono e una parte significativa della comunità scientifica americana non è soltanto una disputa legale. È un segnale di qualcosa di molto più profondo: la ridefinizione del rapporto tra potere statale, sicurezza nazionale e sviluppo dell’intelligenza artificiale.
Quando quasi quaranta ricercatori di aziende concorrenti — tra cui figure di primo piano del mondo AI — decidono di firmare una petizione a sostegno di un’altra società, significa che il problema percepito va oltre la singola azienda.
Significa che è in gioco l’architettura stessa dell’ecosistema tecnologico.
Il punto più delicato non è nemmeno la decisione in sé del Dipartimento della Difesa. Gli Stati hanno sempre avuto il diritto di proteggere la propria sicurezza nazionale e di escludere fornitori ritenuti rischiosi. La differenza, questa volta, è sostanziale: Anthropic non è un attore straniero, ma una società americana che opera nel cuore dell’ecosistema AI statunitense.
Ed è qui che emerge la vera domanda.
Se uno sviluppatore nazionale può essere designato come rischio per la supply chain senza una spiegazione pubblica chiara, quali sono le regole del gioco per il resto del settore?