Redazione RHC : 7 Agosto 2025 16:18
La fiducia degli americani nell’intelligenza artificiale sta diminuendo, nonostante l’accelerazione dei progressi globali in questo campo. Ciò indica un potenziale problema di sicurezza nazionale: legislatori di ogni partito, leader del settore, think tank e altri hanno avvertito che rimanere indietro rispetto alla Cina in materia di intelligenza artificiale metterebbe gli Stati Uniti in una posizione di svantaggio. Un sentimento pubblico negativo potrebbe minare il sostegno del Congresso e finanziario alla ricerca e allo sviluppo in questo campo.
Ma alcune aziende di intelligenza artificiale stanno modificando i loro prodotti per dare ai clienti governativi un maggiore controllo sul comportamento dei modelli, sull’input dei dati e persino sulla fonte di energia che alimenta il sistema.
Questo potrebbe placare l’opinione pubblica?
Scarica Gratuitamente Byte The Silence, il fumetto sul Cyberbullismo di Red Hot Cyber
«Il cyberbullismo è una delle minacce più insidiose e silenziose che colpiscono i nostri ragazzi. Non si tratta di semplici "bravate online", ma di veri e propri atti di violenza digitale, capaci di lasciare ferite profonde e spesso irreversibili nell’animo delle vittime. Non possiamo più permetterci di chiudere gli occhi».
Così si apre la prefazione del fumetto di Massimiliano Brolli, fondatore di Red Hot Cyber, un’opera che affronta con sensibilità e realismo uno dei temi più urgenti della nostra epoca.
Distribuito gratuitamente, questo fumetto nasce con l'obiettivo di sensibilizzare e informare. È uno strumento pensato per scuole, insegnanti, genitori e vittime, ma anche per chi, per qualsiasi ragione, si è ritrovato nel ruolo del bullo, affinché possa comprendere, riflettere e cambiare.
Con la speranza che venga letto, condiviso e discusso, Red Hot Cyber è orgogliosa di offrire un contributo concreto per costruire una cultura digitale più consapevole, empatica e sicura.
Contattaci tramite WhatsApp al numero 375 593 1011 per richiedere ulteriori informazioni oppure alla casella di posta [email protected]
Un recente accordo dimostra fino a che punto le aziende siano disposte a spingersi per soddisfare le esigenze del governo. Per miliardi di persone, ChatGPT è un’astrazione visualizzata tramite il browser web. Ma all’inizio di questo mese, il chatbot basato sull’intelligenza artificiale ha assunto una forma fisica quando OpenAI ha consegnato diversi hard disk contenenti i pesi del modello o3 al Los Alamos National Laboratory. Il laboratorio mira a utilizzarli per esaminare dati classificati alla ricerca di informazioni sulla fisica delle particelle che potrebbero rimodellare la ricerca di energia e lo sviluppo di armi nucleari.
Quei dischi rigidi erano i “più preziosi” sulla Terra, l’incarnazione fisica della valutazione di 300 miliardi di dollari di OpenAI, ha detto a Defense One Katrina Mulligan, responsabile governativa dell’azienda, in occasione di un recente evento sull’intelligenza artificiale a Washington, DC. “Stiamo perdendo soldi con il nostro accordo con i laboratori nazionali”, ha detto Mulligan.
Pochi giorni dopo, OpenAI ha annunciato un contratto da 200 milioni di dollari con il Pentagono per “prototipare come l’intelligenza artificiale di frontiera possa trasformare le sue operazioni amministrative, dal miglioramento del modo in cui i militari e le loro famiglie ricevono assistenza sanitaria, alla semplificazione del modo in cui analizzano i dati di programma e acquisizione, fino al supporto alla difesa informatica proattiva. Tutti i casi d’uso devono essere coerenti con le politiche e le linee guida di OpenAI”.
All’AI Expo dello Special Competitive Studies Project a Washington, DC, un rappresentante di OpenAI ha dimostrato come gli strumenti dell’azienda possano essere utili per compiti di sicurezza nazionale: geolocalizzazione di immagini senza indizi evidenti, scansione dei registri di Telegram alla ricerca di indicatori di attività informatica o identificazione dell’origine di parti di droni recuperate dal campo di battaglia.
Il responsabile della demo ha affermato che i più recenti modelli di ragionamento dell’azienda non solo superano le versioni precedenti, ma ora consentono anche l’inserimento sicuro di dati classificati in conformità con le linee guida del Dipartimento della Difesa. A differenza di ChatGPT, rivolto al pubblico, la versione governativa mostra anche agli utenti come il modello prioritizza le fonti di dati, offrendo una trasparenza che consente agli analisti di perfezionare la logica e comprendere come il programma sia giunto alle conclusioni a cui è giunto.
Questa visibilità è essenziale per l’uso ai fini della sicurezza nazionale, ha affermato Mulligan, molto più che per i consumatori che vogliono risposte e raramente chiedono come vengono realizzati.
“Produce una catena di pensiero piuttosto dettagliata che ti dice come è arrivato alla sua conclusione, quali informazioni ha preso in considerazione che non erano possibili nel paradigma precedente”, ha detto, aggiungendo che le persone hanno creduto a lungo che tali modelli semplicemente non potessero essere spiegati, pensando che “questi modelli sarebbero sempre stati una scatola nera”.
La spiegabilità, la portabilità dei dati e il controllo delle infrastrutture locali, che consentono ai laboratori di eseguire modelli sui propri supercomputer, stanno emergendo come requisiti di base per l’uso dell’intelligenza artificiale nella pubblica amministrazione. Dare agli utenti maggiore autonomia crea fiducia.
OpenAI non è l’unica. Amazon Web Services sta silenziosamente diventando un attore fondamentale nell’intelligenza artificiale per la difesa. Ha recentemente rilasciato una versione del suo servizio Bedrock, che consente agli utenti di creare applicazioni di intelligenza artificiale generativa con un menu di modelli fondamentali, con sicurezza di livello classificato per i clienti del Dipartimento della Difesa.
Ma mentre la fiducia tra governo e Silicon Valley si sta rafforzando attorno all’obiettivo comune di progredire nell’implementazione dell’intelligenza artificiale, l’opinione pubblica si sta muovendo nella direzione opposta.
Un sondaggio condotto da Edelman a marzo ha mostrato che la fiducia nell’IA è scesa dal 50% al 35% dal 2019. E la sfiducia attraversa tutti gli schieramenti politici: solo il 38% dei democratici si fida dell’IA, rispetto al 25% degli indipendenti e al 24% dei repubblicani. Questo segue altri sondaggi che hanno mostrato un sentimento pubblico sempre più negativo nei confronti dell’IA, nonostante i professionisti che hanno integrato l’IA nel loro lavoro segnalino livelli di prestazioni più elevati.
Ma la vera divergenza è geopolitica. “La fiducia nell’intelligenza artificiale negli Stati Uniti e in tutto il mondo occidentale è bassa, mentre in Cina e nel resto del mondo in via di sviluppo si attesta intorno al 75%.”, ha affermato Mulligan.
Teme che queste disparità si traducano in reali divari nell’adozione, con la Cina in vantaggio in termini di produttività, crescita economica e qualità della vita.
Un esperto di sicurezza ha scoperto che sei dei gestori di password più diffusi, utilizzati da decine di milioni di persone, sono vulnerabili al clickjacking, un fenomeno che consente agli aggres...
NetScaler ha avvisato gli amministratori di tre nuove vulnerabilità in NetScaler ADC e NetScaler Gateway, una delle quali è già utilizzata in attacchi attivi. Sono disponibili aggiornam...
Grazie alla nostra community recentemente sono venuto a conoscenza di un tentativo di phishing contro PagoPA e ho deciso di fare due cose. Per prima cosa attivarmi in prima persona per arrecare un dan...
Un giovedì nero per milioni di utenti Microsoft Teams in tutto il mondo. Una funzionalità chiave della piattaforma di collaborazione – l’apertura dei documenti Office incorpora...
È stata intentata una causa contro OpenAI in California , sostenendo che ChatGPT abbia spinto un sedicenne al suicidio. I genitori di Adam Reid, deceduto l’11 aprile 2025, hanno affermato ...