Redazione RHC : 17 Luglio 2021 07:00
Le guerra “autonoma” sta per arrivare.
E con lei anche un arsenale di macchine intelligenti capaci di poter decidere se e come attaccare.
Vuoi diventare un esperto del Dark Web e della Cyber Threat Intelligence (CTI)?
Stiamo per avviare il corso intermedio in modalità "Live Class", previsto per febbraio.
A differenza dei corsi in e-learning, disponibili online sulla nostra piattaforma con lezioni pre-registrate, i corsi in Live Class offrono un’esperienza formativa interattiva e coinvolgente.
Condotti dal professor Pietro Melillo, le lezioni si svolgono online in tempo reale, permettendo ai partecipanti di interagire direttamente con il docente e approfondire i contenuti in modo personalizzato.
Questi corsi, ideali per aziende, consentono di sviluppare competenze mirate, affrontare casi pratici e personalizzare il percorso formativo in base alle esigenze specifiche del team, garantendo un apprendimento efficace e immediatamente applicabile.
Per ulteriori informazioni, scrivici ad [email protected] oppure scrivici su Whatsapp al 379 163 8765
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
Ne parlammo di recente in un nostro articolo dal titolo “Un drone militare guidato da una intelligenza artificiale, può uccidere?“, ma sembra che le cose stiano andando avanti, anche in questo caso in modo “autonomo”.
Infatti, il possibile utilizzo da parte di Russia e Cina di droni e sistemi d’arma basati sull’intelligenza artificiale preoccupa molto il Pentagono. Questo è stato scritto dall’editorialista Chris Osborne di recente in un suo articolo per il The National Interest.
L’autore fa riferimento alla dichiarazione del tenente generale Michael Groen, secondo il quale, se la Russia creerà una “IA militare”, gli Stati Uniti e i suoi alleati non potranno dare una risposta equivalente.
Ha spiegato questo con il fatto che le armi controllate dall’intelligenza artificiale non saranno guidate da considerazioni etiche o umanitarie prima di lanciare un attacco, mentre negli Stati Uniti, che non hanno un tale sistema, le persone prenderanno la decisione di attaccare evitando di far fare questo alle macchine.
A tal proposito, il tenente generale ritiene necessario creare e utilizzare armi altamente efficaci con il supporto dell’IA nel rispetto degli standard etici esistenti.
Attualmente, il Dipartimento della Difesa degli Stati Uniti sta valutando la possibilità di creare sistemi di intelligenza artificiale in grado di utilizzare armi non letali o di tipo difensivo contro missili, mortai e droni antinave in avvicinamento.
Questo, secondo i militari, aiuterà a introdurre principi etici nell’uso delle armi basate sull’intelligenza artificiale.
I black hacker di NOVA tornano a colpire, e questa volta con insulti all’Italia dopo la pubblicazione dei dati del presunto attacco informatico al Comune di Pisa. Dopo aver rivendicato l’...
Un’operazione globale di contrasto coordinata dall’Europol ha inferto un duro colpo alla criminalità underground, con 270 arresti tra venditori e acquirenti del dark web in dieci pa...
Una vulnerabilità zero-day nel kernel Linux, è stata scoperta utilizzando il modello o3 di OpenAI. Questa scoperta, alla quale è stata assegnata la vulnerabilità CVE-2025-37899, se...
In un preoccupante segnale dell’evoluzione delle tattiche cybercriminali, i threat actor stanno ora sfruttando la popolarità di TikTok come canale per la distribuzione di malware avanzati ...
Nelle ultime ore si è assistito a un grande clamore mediatico riguardante il “takedown” dell’infrastruttura del noto malware-as-a-service Lumma Stealer, con un’operazi...
Copyright @ REDHOTCYBER Srl
PIVA 17898011006