Un rapporto di OpenAI rivela la possibilità di utilizzare il nuovo modello GPT-4 per creare disinformazione persuasiva. Gli sviluppatori avvertono che l’intelligenza artificiale può generare fatti e storie che saranno più efficienti di quelli creati dalle versioni precedenti.
GPT-4 dimostra prestazioni a livello umano nella maggior parte degli esami professionali e accademici.
Gli autori del rapporto esprimono la preoccupazione che la dipendenza dal modello possa ostacolare lo sviluppo di nuove competenze, oltre a portare alla perdita di competenze già formate.
Tramite l’utilizzo di ChatGPT sono già state effettute diverse truffe che si sono rivelate molto convincenti.
Questa è una preoccupazione in quanto l’intelligenza artificiale può essere utilizzata per lanciare attacchi di phishing e nascondere le prove di comportamenti fraudolenti.
Alcune aziende prevedono di implementare GPT-4 senza intraprendere azioni contro comportamenti inappropriati o illegali.
Esiste il rischio che l’intelligenza artificiale possa generare incitamento all’odio, frasi discriminatorie e inviti alla violenza.
Pertanto, le aziende dovrebbero essere più attente alle possibili conseguenze quando si utilizza GPT-4 e adottare misure adeguate per prevenire l’abuso dell’intelligenza artificiale.
La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull’informatica in generale.