
Come al solito, il primo problema sulla sicurezza informatica è l’elemento debole del sistema: l’uomo. E questo può essere ingannato in modo sempre più efficace utilizzando le intelligenze artificiali.
Il co-fondatore di Apple Steve Wozniak ha avvertito che l’intelligenza artificiale (AI) potrebbe essere utilizzata dagli hacker per diffondere truffe e disinformazione. Ha chiesto la regolamentazione dell’IA e l’etichettatura dei contenuti generati dall’IA.
Wozniak, che ha co-fondato Apple con il defunto Steve Jobs e ha inventato il primo computer dell’azienda, ha firmato una lettera a marzo in cui più di 1.800 persone, tra cui il CEO di Tesla Elon Musk, hanno chiesto che lo sviluppo di potenti sistemi di intelligenza artificiale fosse sospeso per sei mesi a causa dei rischi per l’umanità. Tuttavia, alcuni dei firmatari si sono rivelati falsi, mentre altri hanno rifiutato la loro firma.
Avvio delle iscrizioni al corso Cyber Offensive Fundamentals Vuoi smettere di guardare tutorial e iniziare a capire davvero come funziona la sicurezza informatica? La base della sicurezza informatica, al di là di norme e tecnologie, ha sempre un unico obiettivo: fermare gli attacchi dei criminali informatici. Pertanto "Pensa come un attaccante, agisci come un difensore". Ti porteremo nel mondo dell'ethical hacking e del penetration test come nessuno ha mai fatto prima. Per informazioni potete accedere alla pagina del corso oppure contattarci tramite WhatsApp al numero 379 163 8765 oppure scrivendoci alla casella di posta [email protected].
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
In un’intervista alla BBC, Wozniak ha parlato dei vantaggi e dei pericoli dell’IA.
Ha detto che l’intelligenza artificiale è così intelligente che può essere utilizzata da coloro che vogliono ingannarti sulla loro identità. Ha fornito un esempio del programma GPT-4 sviluppato da OpenAI, che può portare avanti una conversazione come un essere umano, comporre canzoni e riassumere lunghi documenti.
Wozniak non pensa che l’intelligenza artificiale sostituirà gli umani perché manca di emozione, ma ha avvertito che renderà gli aggressori più persuasivi perché programmi come ChatGPT possono produrre testo che “suona così intelligente”. Ha ritenuto che la responsabilità per i contenuti generati dall’IA ricada su coloro che li pubblicano: “Una persona dovrebbe essere responsabile di ciò che l’IA genera”.
Ha anche esortato le autorità di regolamentazione a tenere conto delle grandi aziende tecnologiche che “pensano di poter fare qualsiasi cosa”, ma ha espresso dubbi sul fatto che le autorità di regolamentazione sarebbero all’altezza del compito. “Le forze guidate dal denaro di solito vincono, il che è piuttosto triste”, ha detto.
Wozniak ha affermato che “non possiamo fermare la tecnologia”, ma ha aggiunto che possiamo educare le persone e insegnare loro a riconoscere le frodi e i tentativi dannosi di rubare informazioni personali.
Anche il CEO di Apple, Tim Cook, ha parlato con cautela dell’intelligenza artificiale la scorsa settimana. Ha detto agli investitori che era importante essere “cauti e premurosi” nel loro approccio all’IA. “Vediamo l’IA come un enorme potenziale e continueremo a incorporarla con molta attenzione nei nostri prodotti”, ha affermato.
Tuttavia, l’intelligenza artificiale rappresenta anche una serie di minacce per l’umanità. I ricercatori e gli esperti di sicurezza informatica avvertono che l’intelligenza artificiale può essere utilizzata dagli aggressori per diffondere truffe, disinformazione, ricatto e altri tipi di criminalità informatica. Inoltre, l’intelligenza artificiale può violare i diritti umani e le libertà, tra cui la privacy, la privacy e l’autodeterminazione.
L’intelligenza artificiale deve essere sviluppata e applicata in modo etico e legale. Alcuni paesi e organizzazioni hanno già adottato o sviluppato documenti per regolamentare l’IA, come l’Unione Europea, gli Stati Uniti, la Cina e le Nazioni Unite. Tuttavia, questi documenti non sono sempre coordinati tra loro e non sempre tengono conto delle specificità dei diversi settori e regioni.
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

DirittiIl presente contributo approfondisce le criticità tecniche e costituzionali della proposta di Regolamento COM/2022/209 CSAR(Child Sexual Abuse Regulation). Questo studio fa seguito all’inquadramento generale già delineato e si concentra sul conflitto tra l’integrità dei sistemi…
CybercrimePer gran parte degli ultimi due decenni, la sicurezza informatica si è fondata su un presupposto fondamentale: le attività malevole possono essere individuate, analizzate e contrastate prima che producano danni significativi. Questo assunto ha modellato…
CybercrimeUn nuovo report pubblicato dall’Huntress Tactical Response Team documenta un’intrusione estremamente sofisticata individuata nel dicembre 2025, nella quale un attore avanzato è riuscito a compromettere un’infrastruttura VMware ESXi sfruttando una VM escape, ovvero l’evasione da…
CybercrimeIn un ecosistema digitale sempre più interconnesso, le aziende dipendono da reti di fornitori e partner per operare in modo efficiente. Tuttavia, questa interdipendenza ha trasformato la supply chain in un nuovo perimetro critico della…
CybercrimeUn messaggio di cancellazione da Booking.com con una penale elevata sembra una pratica commerciale tipica di hotel e appartamenti. Ma è proprio questo tipo di email a dare il via a una nuova campagna malware,…