Redazione RHC : 22 Agosto 2023 08:20
I programmi di intelligenza artificiale generativa come ChatGPT e Bard di Google hanno attirato l’attenzione del pubblico e il controllo dei legislatori, sebbene finora il Pentagono sia stato riluttante ad adottarli.
Ma recentemente, il Dipartimento della Difesa ha annunciato una task force per capire come potrebbe utilizzare tali strumenti in modo sicuro, rivelare situazioni in cui tali tecnologie non risultino sicure ed esplorare come paesi come la Cina potrebbero utilizzare l’IA generativa per danneggiare gli Stati Uniti.
La task force, soprannominata Task Force Lima, “valuterà, sincronizzerà e impiegherà l’intelligenza artificiale generativa (AI) in tutto il Dipartimento“.
PARTE LA PROMO ESTATE -40%
RedHotCyber Academy lancia una promozione esclusiva e a tempo limitato per chi vuole investire nella propria crescita professionale nel mondo della tecnologia e della cybersecurity!
Approfitta del 40% di sconto sull’acquisto congiunto di 3 corsi da te scelti dalla nostra Academy. Ad esempio potresti fare un percorso formativo includendo Cyber Threat intelligence + NIS2 + Criptovalute con lo sconto del 40%. Tutto questo lo potrai fruire, dove e quando vuoi e con la massima flessibilità, grazie a lezioni di massimo 30 minuti ciascuna.
Contattaci tramite WhatsApp al 375 593 1011 per richiedere ulteriori informazioni oppure scriviti alla casella di posta [email protected]
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
L’intelligenza artificiale generativa si riferisce a “una categoria di algoritmi di intelligenza artificiale che generano nuovi risultati in base ai dati su cui sono stati addestrati”, secondo il World Economic Forum. È molto diverso dagli algoritmi di apprendimento automatico molto più semplici che prendono semplicemente dati strutturati come valori numerici e producono il prossimo probabile risultato statistico.
Gli strumenti di intelligenza artificiale generativa rivolti al pubblico includono i cosiddetti modelli di linguaggio di grandi dimensioni come ChatGPT che possono scrivere nuovo testo che è in gran parte indistinguibile dal linguaggio umano.
Questi strumenti sono già stati utilizzati per scrivere saggi, piani aziendali e persino articoli scientifici. Ma poiché i modelli di linguaggio di grandi dimensioni vengono addestrati su dati grandi quanto il Web, a volte mentono o, nel linguaggio dei ricercatori di intelligenza artificiale, vanno incontro alle “allucinazioni”.
Per questo motivo, i funzionari del Pentagono hanno espresso riluttanza ad abbracciare l’IA generativa.
Il nuovo sforzo sarà guidato da Craig Martell, chief digital officer del Dipartimento della Difesa. Martell ha detto che molto è ancora da capire, ma un obiettivo principale sarà quello di trovare una “serie di casi d’uso, all’interno del dipartimento”. Tuttavia, ci sono una serie di casi d’uso in cui i rischi di allucinazioni saranno troppo alti per impiegare un modello linguistico ampio, come “qualsiasi cosa cinetica” o avere a che fare con armi letali, ha affermato.
Secondo un nuovo rapporto del gruppo per i diritti umani Amnesty International, pubblicato dopo quasi due anni di ricerche sulla situazione, la Cambogia resta un punto caldo sulla mappa mondiale della...
Hunters International, il gruppo responsabile di uno dei più grandi attacchi ransomware degli ultimi anni, ha annunciato ufficialmente la cessazione delle sue attività. In una dichiarazione ...
I ricercatori di Okta hanno notato che aggressori sconosciuti stanno utilizzando lo strumento di intelligenza artificiale generativa v0 di Vercel per creare pagine false che imitano qu...
Google è al centro di un’imponente causa in California che si è conclusa con la decisione di pagare oltre 314 milioni di dollari agli utenti di smartphone Android nello stato. Una giu...
La RHC Conference 2025, organizzata da Red Hot Cyber, ha rappresentato un punto di riferimento per la comunità italiana della cybersecurity, offrendo un ricco programma di talk, workshop e compet...
Copyright @ REDHOTCYBER Srl
PIVA 17898011006