Redazione RHC : 22 Agosto 2023 08:20
I programmi di intelligenza artificiale generativa come ChatGPT e Bard di Google hanno attirato l’attenzione del pubblico e il controllo dei legislatori, sebbene finora il Pentagono sia stato riluttante ad adottarli.
Ma recentemente, il Dipartimento della Difesa ha annunciato una task force per capire come potrebbe utilizzare tali strumenti in modo sicuro, rivelare situazioni in cui tali tecnologie non risultino sicure ed esplorare come paesi come la Cina potrebbero utilizzare l’IA generativa per danneggiare gli Stati Uniti.
La task force, soprannominata Task Force Lima, “valuterà, sincronizzerà e impiegherà l’intelligenza artificiale generativa (AI) in tutto il Dipartimento“.
CALL FOR SPONSOR - Sponsorizza l'ottavo episodio della serie Betti-RHC
Sei un'azienda innovativa, che crede nella diffusione di concetti attraverso metodi "non convenzionali"?
Conosci il nostro corso sul cybersecurity awareness a fumetti?
Red Hot Cyber sta ricercando un nuovo sponsor per una nuova puntata del fumetto Betti-RHC mentre il team è impegnato a realizzare 3 nuovi episodi che ci sono stati commissionati.
Contattaci tramite WhatsApp al numero 375 593 1011 per richiedere ulteriori informazioni oppure alla casella di posta [email protected]
L’intelligenza artificiale generativa si riferisce a “una categoria di algoritmi di intelligenza artificiale che generano nuovi risultati in base ai dati su cui sono stati addestrati”, secondo il World Economic Forum. È molto diverso dagli algoritmi di apprendimento automatico molto più semplici che prendono semplicemente dati strutturati come valori numerici e producono il prossimo probabile risultato statistico.
Gli strumenti di intelligenza artificiale generativa rivolti al pubblico includono i cosiddetti modelli di linguaggio di grandi dimensioni come ChatGPT che possono scrivere nuovo testo che è in gran parte indistinguibile dal linguaggio umano.
Questi strumenti sono già stati utilizzati per scrivere saggi, piani aziendali e persino articoli scientifici. Ma poiché i modelli di linguaggio di grandi dimensioni vengono addestrati su dati grandi quanto il Web, a volte mentono o, nel linguaggio dei ricercatori di intelligenza artificiale, vanno incontro alle “allucinazioni”.
Per questo motivo, i funzionari del Pentagono hanno espresso riluttanza ad abbracciare l’IA generativa.
Il nuovo sforzo sarà guidato da Craig Martell, chief digital officer del Dipartimento della Difesa. Martell ha detto che molto è ancora da capire, ma un obiettivo principale sarà quello di trovare una “serie di casi d’uso, all’interno del dipartimento”. Tuttavia, ci sono una serie di casi d’uso in cui i rischi di allucinazioni saranno troppo alti per impiegare un modello linguistico ampio, come “qualsiasi cosa cinetica” o avere a che fare con armi letali, ha affermato.
Secondo quanto riportato dai media, le autorità statunitensi starebbero segretamente inserendo dispositivi di localizzazione in lotti di chip che potrebbero essere dirottati illegalmente verso la...
Una nuova campagna malware per Android sta prendendo di mira i clienti bancari in Brasile, India e Sud-est asiatico, combinando frodi contactless NFC, intercettazione delle chiamate e sfruttamento del...
Google sta testando una nuova funzionalità per migliorare la privacy nella modalità di navigazione in incognito di Chrome su Windows: il blocco degli script in incognito (PrivacySandboxFinge...
Sembra che gli Stati Uniti abbiano già seriamente preso in considerazione il concetto di guerra autonoma. Il jet da combattimento autonomo della DARPA , risulta in grado di combattere senza pilot...
CrowdStrike ha pubblicato il suo Global Threat Report 2025, che documenta un balzo in avanti nel comportamento dei criminali informatici e dei gruppi statali. Gli esperti definiscono il 2024 “l...