
Redazione RHC : 31 Marzo 2023 16:00
Un rapporto di OpenAI rivela la possibilità di utilizzare il nuovo modello GPT-4 per creare disinformazione persuasiva. Gli sviluppatori avvertono che l’intelligenza artificiale può generare fatti e storie che saranno più efficienti di quelli creati dalle versioni precedenti.
GPT-4 dimostra prestazioni a livello umano nella maggior parte degli esami professionali e accademici.
Gli autori del rapporto esprimono la preoccupazione che la dipendenza dal modello possa ostacolare lo sviluppo di nuove competenze, oltre a portare alla perdita di competenze già formate.
Vuoi diventare un esperto del Dark Web e della Cyber Threat Intelligence (CTI)? Stiamo per avviare il corso intermedio in modalità "Live Class" del corso "Dark Web & Cyber Threat Intelligence". A differenza dei corsi in e-learning, disponibili online sulla nostra piattaforma con lezioni pre-registrate, i corsi in Live Class offrono un’esperienza formativa interattiva e coinvolgente. Condotti dal professor Pietro Melillo, le lezioni si svolgono online in tempo reale, permettendo ai partecipanti di interagire direttamente con il docente e approfondire i contenuti in modo personalizzato. Questi corsi, ideali per aziende, consentono di sviluppare competenze mirate, affrontare casi pratici e personalizzare il percorso formativo in base alle esigenze specifiche del team, garantendo un apprendimento efficace e immediatamente applicabile. Guarda subito l'anteprima gratuita del corso su academy.redhotcyber.com Contattaci per ulteriori informazioni tramite WhatsApp al 375 593 1011 oppure scrivi a [email protected]
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Tramite l’utilizzo di ChatGPT sono già state effettute diverse truffe che si sono rivelate molto convincenti.
Questa è una preoccupazione in quanto l’intelligenza artificiale può essere utilizzata per lanciare attacchi di phishing e nascondere le prove di comportamenti fraudolenti.
Alcune aziende prevedono di implementare GPT-4 senza intraprendere azioni contro comportamenti inappropriati o illegali.
Esiste il rischio che l’intelligenza artificiale possa generare incitamento all’odio, frasi discriminatorie e inviti alla violenza.
Pertanto, le aziende dovrebbero essere più attente alle possibili conseguenze quando si utilizza GPT-4 e adottare misure adeguate per prevenire l’abuso dell’intelligenza artificiale.
Redazione
Il DPO, ma anche il consulente privacy, interagisce in modo significativo con il mondo dell’IT. Purtroppo non sempre lo fa in modo corretto, soprattutto perché alcuni falsi miti provocano quel rumo...

Il post 462 del canale ufficiale di Durov ha attivato subito la “modalità urlo”: “Fine dell’internet libero. L’internet libero sta diventando uno strumento di controllo”. Niente auguri pe...

Il mercato clandestino del cybercrime continua a evolversi rapidamente, alimentato da gruppi specializzati che progettano e vendono strumenti per truffe digitali sempre più sofisticate. Tra questi, u...

L’azienda giapponese Science ha lanciato una lavatrice per esseri umani. La capsula lunga 2,30 metri lava una persona in 15 minuti e ha suscitato notevole interesse all’Expo di Osaka concluso rece...

Airbus ha annunciato il richiamo di circa 6.500 aeromobili A320 a causa di potenziali guasti al sistema di controllo ELAC causati da potenti brillamenti solari. Il richiamo è avvenuto in seguito a un...