Redazione RHC : 7 Agosto 2025 16:18
La fiducia degli americani nell’intelligenza artificiale sta diminuendo, nonostante l’accelerazione dei progressi globali in questo campo. Ciò indica un potenziale problema di sicurezza nazionale: legislatori di ogni partito, leader del settore, think tank e altri hanno avvertito che rimanere indietro rispetto alla Cina in materia di intelligenza artificiale metterebbe gli Stati Uniti in una posizione di svantaggio. Un sentimento pubblico negativo potrebbe minare il sostegno del Congresso e finanziario alla ricerca e allo sviluppo in questo campo.
Ma alcune aziende di intelligenza artificiale stanno modificando i loro prodotti per dare ai clienti governativi un maggiore controllo sul comportamento dei modelli, sull’input dei dati e persino sulla fonte di energia che alimenta il sistema.
Questo potrebbe placare l’opinione pubblica?
![]() Sponsorizza la prossima Red Hot Cyber Conference!Il giorno Lunedì 18 maggio e martedì 19 maggio 2026 9 maggio 2026, presso il teatro Italia di Roma (a due passi dalla stazione termini e dalla metro B di Piazza Bologna), si terrà la V edizione della la RHC Conference. Si tratta dell’appuntamento annuale gratuito, creato dalla community di RHC, per far accrescere l’interesse verso le tecnologie digitali, l’innovazione digitale e la consapevolezza del rischio informatico. Se sei interessato a sponsorizzare l'evento e a rendere la tua azienda protagonista del più grande evento della Cybersecurity Italiana, non perdere questa opportunità. E ricorda che assieme alla sponsorizzazione della conferenza, incluso nel prezzo, avrai un pacchetto di Branding sul sito di Red Hot Cyber composto da Banner più un numero di articoli che saranno ospitati all'interno del nostro portale. Quindi cosa stai aspettando? Scrivici subito a [email protected] per maggiori informazioni e per accedere al programma sponsor e al media Kit di Red Hot Cyber.
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Un recente accordo dimostra fino a che punto le aziende siano disposte a spingersi per soddisfare le esigenze del governo. Per miliardi di persone, ChatGPT è un’astrazione visualizzata tramite il browser web. Ma all’inizio di questo mese, il chatbot basato sull’intelligenza artificiale ha assunto una forma fisica quando OpenAI ha consegnato diversi hard disk contenenti i pesi del modello o3 al Los Alamos National Laboratory. Il laboratorio mira a utilizzarli per esaminare dati classificati alla ricerca di informazioni sulla fisica delle particelle che potrebbero rimodellare la ricerca di energia e lo sviluppo di armi nucleari.
Quei dischi rigidi erano i “più preziosi” sulla Terra, l’incarnazione fisica della valutazione di 300 miliardi di dollari di OpenAI, ha detto a Defense One Katrina Mulligan, responsabile governativa dell’azienda, in occasione di un recente evento sull’intelligenza artificiale a Washington, DC. “Stiamo perdendo soldi con il nostro accordo con i laboratori nazionali”, ha detto Mulligan.
Pochi giorni dopo, OpenAI ha annunciato un contratto da 200 milioni di dollari con il Pentagono per “prototipare come l’intelligenza artificiale di frontiera possa trasformare le sue operazioni amministrative, dal miglioramento del modo in cui i militari e le loro famiglie ricevono assistenza sanitaria, alla semplificazione del modo in cui analizzano i dati di programma e acquisizione, fino al supporto alla difesa informatica proattiva. Tutti i casi d’uso devono essere coerenti con le politiche e le linee guida di OpenAI”.
All’AI Expo dello Special Competitive Studies Project a Washington, DC, un rappresentante di OpenAI ha dimostrato come gli strumenti dell’azienda possano essere utili per compiti di sicurezza nazionale: geolocalizzazione di immagini senza indizi evidenti, scansione dei registri di Telegram alla ricerca di indicatori di attività informatica o identificazione dell’origine di parti di droni recuperate dal campo di battaglia.
Il responsabile della demo ha affermato che i più recenti modelli di ragionamento dell’azienda non solo superano le versioni precedenti, ma ora consentono anche l’inserimento sicuro di dati classificati in conformità con le linee guida del Dipartimento della Difesa. A differenza di ChatGPT, rivolto al pubblico, la versione governativa mostra anche agli utenti come il modello prioritizza le fonti di dati, offrendo una trasparenza che consente agli analisti di perfezionare la logica e comprendere come il programma sia giunto alle conclusioni a cui è giunto.
Questa visibilità è essenziale per l’uso ai fini della sicurezza nazionale, ha affermato Mulligan, molto più che per i consumatori che vogliono risposte e raramente chiedono come vengono realizzati.
“Produce una catena di pensiero piuttosto dettagliata che ti dice come è arrivato alla sua conclusione, quali informazioni ha preso in considerazione che non erano possibili nel paradigma precedente”, ha detto, aggiungendo che le persone hanno creduto a lungo che tali modelli semplicemente non potessero essere spiegati, pensando che “questi modelli sarebbero sempre stati una scatola nera”.
La spiegabilità, la portabilità dei dati e il controllo delle infrastrutture locali, che consentono ai laboratori di eseguire modelli sui propri supercomputer, stanno emergendo come requisiti di base per l’uso dell’intelligenza artificiale nella pubblica amministrazione. Dare agli utenti maggiore autonomia crea fiducia.
OpenAI non è l’unica. Amazon Web Services sta silenziosamente diventando un attore fondamentale nell’intelligenza artificiale per la difesa. Ha recentemente rilasciato una versione del suo servizio Bedrock, che consente agli utenti di creare applicazioni di intelligenza artificiale generativa con un menu di modelli fondamentali, con sicurezza di livello classificato per i clienti del Dipartimento della Difesa.
Ma mentre la fiducia tra governo e Silicon Valley si sta rafforzando attorno all’obiettivo comune di progredire nell’implementazione dell’intelligenza artificiale, l’opinione pubblica si sta muovendo nella direzione opposta.
Un sondaggio condotto da Edelman a marzo ha mostrato che la fiducia nell’IA è scesa dal 50% al 35% dal 2019. E la sfiducia attraversa tutti gli schieramenti politici: solo il 38% dei democratici si fida dell’IA, rispetto al 25% degli indipendenti e al 24% dei repubblicani. Questo segue altri sondaggi che hanno mostrato un sentimento pubblico sempre più negativo nei confronti dell’IA, nonostante i professionisti che hanno integrato l’IA nel loro lavoro segnalino livelli di prestazioni più elevati.
Ma la vera divergenza è geopolitica. “La fiducia nell’intelligenza artificiale negli Stati Uniti e in tutto il mondo occidentale è bassa, mentre in Cina e nel resto del mondo in via di sviluppo si attesta intorno al 75%.”, ha affermato Mulligan.
Teme che queste disparità si traducano in reali divari nell’adozione, con la Cina in vantaggio in termini di produttività, crescita economica e qualità della vita.
Sarebbe fantastico avere un agente AI capace di analizzare automaticamente il codice dei nostri progetti, individuare i bug di sicurezza, generare la correzione e pubblicarla subito in produzione. Epp...
La disillusione nei confronti degli incontri online spinge sempre più le donne a cercare intimità emotiva nel mondo virtuale. Sempre più donne si rivolgono all’intelligenza artificiale, ovvero ai...
Una falla critica di 13 anni, nota come RediShell, presente in Redis, permette l’esecuzione di codice remoto (RCE) e offre agli aggressori la possibilità di acquisire il pieno controllo del sistema...
Se n’è parlato molto poco di questo avvenimento, che personalmente reputo strategicamente molto importante e segno di un forte cambiamento nella gestione delle vulnerabilità non documentate in Ita...
Autore: Inva Malaj e Raffaela Crisci 04/10/2025 – Darkforums.st: “303” Rivendica Data Breach di 9 GB su Apple.com Nelle prime ore del 4 ottobre 2025, sul forum underground Darkforums è comparsa...