Redazione RHC : 17 Luglio 2021 07:00
Le guerra “autonoma” sta per arrivare.
E con lei anche un arsenale di macchine intelligenti capaci di poter decidere se e come attaccare.
Vuoi diventare un esperto del Dark Web e della Cyber Threat Intelligence (CTI)?
Stiamo per avviare il corso intermedio in modalità "Live Class" del corso "Dark Web & Cyber Threat Intelligence".
A differenza dei corsi in e-learning, disponibili online sulla nostra piattaforma con lezioni pre-registrate, i corsi in Live Class offrono un’esperienza formativa interattiva e coinvolgente.
Condotti dal professor Pietro Melillo, le lezioni si svolgono online in tempo reale, permettendo ai partecipanti di interagire direttamente con il docente e approfondire i contenuti in modo personalizzato.
Questi corsi, ideali per aziende, consentono di sviluppare competenze mirate, affrontare casi pratici e personalizzare il percorso formativo in base alle esigenze specifiche del team, garantendo un apprendimento efficace e immediatamente applicabile.
Contattaci tramite WhatsApp al 375 593 1011 per richiedere ulteriori informazioni oppure scriviti alla casella di posta [email protected]
Ne parlammo di recente in un nostro articolo dal titolo “Un drone militare guidato da una intelligenza artificiale, può uccidere?“, ma sembra che le cose stiano andando avanti, anche in questo caso in modo “autonomo”.
Infatti, il possibile utilizzo da parte di Russia e Cina di droni e sistemi d’arma basati sull’intelligenza artificiale preoccupa molto il Pentagono. Questo è stato scritto dall’editorialista Chris Osborne di recente in un suo articolo per il The National Interest.
L’autore fa riferimento alla dichiarazione del tenente generale Michael Groen, secondo il quale, se la Russia creerà una “IA militare”, gli Stati Uniti e i suoi alleati non potranno dare una risposta equivalente.
Ha spiegato questo con il fatto che le armi controllate dall’intelligenza artificiale non saranno guidate da considerazioni etiche o umanitarie prima di lanciare un attacco, mentre negli Stati Uniti, che non hanno un tale sistema, le persone prenderanno la decisione di attaccare evitando di far fare questo alle macchine.
A tal proposito, il tenente generale ritiene necessario creare e utilizzare armi altamente efficaci con il supporto dell’IA nel rispetto degli standard etici esistenti.
Attualmente, il Dipartimento della Difesa degli Stati Uniti sta valutando la possibilità di creare sistemi di intelligenza artificiale in grado di utilizzare armi non letali o di tipo difensivo contro missili, mortai e droni antinave in avvicinamento.
Questo, secondo i militari, aiuterà a introdurre principi etici nell’uso delle armi basate sull’intelligenza artificiale.
Sette italiani su dieci hanno il proprio numero di telefono incluso in questa banca dati. Ma cosa significa attualmente disporre di un tale quantitativo di numeri telefonici concentrati all’interno ...
I criminali informatici hanno lanciato una nuova ondata di attacchi che utilizzano file SVG per distribuire pagine di phishing. Gli esperti di VirusTotal hanno segnalato che gli aggressori si spaccian...
Il mondo dei supercomputer è entrato nell’era dell’exascale computing. La classifica TOP500 di giugno per il 2025 ha registrato tre sistemi americani ai vertici, un debutto clamoroso dall’Europ...
Il team di Darklab, la community di esperti di threat intelligence di Red Hot Cyber, ha individuato un annuncio sul marketplace del dark web “Tor Amazon”, l’analogo criminale del celebre e-comme...
Microsoft ha ufficialmente reso pubblico il codice sorgente della sua prima versione di BASIC per il processore MOS 6502, che per decenni è esistito solo sotto forma di fughe di notizie, copie da mus...