
Redazione RHC : 28 Dicembre 2023 08:32
Un nuovo studio dell’Australian National University (ANU) ha scoperto che i volti dei bianchi generati dall’intelligenza artificiale (AI) sembrano più realistici dei veri volti umani. La scoperta solleva interrogativi sui pregiudizi razziali e sui rischi di diffondere disinformazione nelle tecnologie di intelligenza artificiale.
Nello studio, un numero maggiore di partecipanti considerava i volti bianchi generati dall’intelligenza artificiale come persone reali, al contrario dei volti delle persone di colore. Secondo la dottoressa Amy Dowell, autrice senior dello studio, la ragione di ciò è che gli algoritmi di intelligenza artificiale sono addestrati in modo sproporzionato sui dati dei volti bianchi.
Questo “iperrealismo” dell’intelligenza artificiale potrebbe avere gravi conseguenze, soprattutto per le persone di colore, aumentando i pregiudizi razziali online. Il problema è già visibile nelle attuali tecnologie di intelligenza artificiale utilizzate per creare ritratti professionali, in cui l’intelligenza artificiale cambia il colore della pelle e degli occhi delle persone dalla pelle scura in quelli chiari.
Christmas Sale -40% 𝗖𝗵𝗿𝗶𝘀𝘁𝗺𝗮𝘀 𝗦𝗮𝗹𝗲! Sconto del 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮 del Corso "Dark Web & Cyber Threat Intelligence" in modalità E-Learning sulla nostra Academy!🚀
Fino al 𝟯𝟭 𝗱𝗶 𝗗𝗶𝗰𝗲𝗺𝗯𝗿𝗲, prezzi pazzi alla Red Hot Cyber Academy. 𝗧𝘂𝘁𝘁𝗶 𝗶 𝗰𝗼𝗿𝘀𝗶 𝘀𝗰𝗼𝗻𝘁𝗮𝘁𝗶 𝗱𝗲𝗹 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮.
Per beneficiare della promo sconto Christmas Sale, scrivici ad [email protected] o contattaci su Whatsapp al numero di telefono: 379 163 8765.
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
I ricercatori hanno anche scoperto che le persone spesso non sono consapevoli di essere ingannate da individui generati dall’intelligenza artificiale.
Le persone che credono che i volti generati siano reali sono spesso fiduciosi nei loro giudizi senza sapere che si sbagliano. Si scopre che ci sono differenze fisiche tra i volti generati dall’intelligenza artificiale e i volti umani reali, ma le persone li interpretano erroneamente. Ad esempio, i volti bianchi dell’intelligenza artificiale sono spesso più proporzionati, il che viene percepito come un segno di umanità.
I ricercatori avvertono che questa tendenza potrebbe contribuire alla diffusione della disinformazione e del furto di identità. Chiedono una maggiore trasparenza nelle tecnologie di intelligenza artificiale in modo che i ricercatori e il pubblico possano identificare tempestivamente i problemi. Anche una maggiore consapevolezza pubblica può svolgere un ruolo importante, poiché le persone non sono più in grado di riconoscere i volti generati dall’intelligenza artificiale. Educare le persone a riconoscere il realismo dei volti dell’intelligenza artificiale potrebbe aiutare la società a pensare in modo critico alle immagini che vedono online.
Redazione
Il mondo della tecnologia quantistica ha compiuto un balzo in avanti impressionante: QuantWare ha presentato il primo processore al mondo da 10.000 qubit, 100 volte più di qualsiasi dispositivo esist...

Un aggiornamento urgente è stato pubblicato da Ivanti per la sua piattaforma Endpoint Manager (EPM), al fine di risolvere un insieme di vulnerabilità significative che potrebbero permettere agli agg...

A seguito della scoperta di exploit attivi, la Cybersecurity and Infrastructure Security Agency (CISA) ha inserito due vulnerabilità critiche al catalogo Known Exploited Vulnerabilities (KEV) dell’...

Una vulnerabilità zero-day nel driver Windows Cloud Files Mini Filter (cldflt.sys) è attualmente oggetto di sfruttamento attivo. Microsoft ha provveduto al rilascio di aggiornamenti di sicurezza urg...

Una vulnerabilità critica, monitorata con il codice CVE-2025-59719, riguarda le linee di prodotti FortiOS, FortiWeb, FortiProxy e FortiSwitchManager è stata segnalata da Fortinet tramite un avviso d...