
Redazione RHC : 20 Settembre 2025 09:34
I ricercatori dell’Università di Amsterdam hanno realizzato un esperimento inedito, creando un social network popolato esclusivamente da bot con intelligenza artificiale. L’obiettivo principale era analizzare in che modo le dinamiche digitali potessero essere influenzate da diverse misure di moderazione.
L’idea di fondo era verificare l’efficacia di strumenti capaci di ridurre due dei problemi più gravi dei social contemporanei: la polarizzazione e la tossicità nelle interazioni online.
Per questo, sono state messe alla prova sei strategie differenti. Tra queste figuravano il passaggio a un feed cronologico, l’aumento della visibilità di opinioni divergenti, l’occultamento delle statistiche degli iscritti e la rimozione delle descrizioni dei profili.
CALL FOR SPONSOR - Sponsorizza la Graphic Novel Betti-RHC Sei un'azienda innovativa, che crede nella diffusione di concetti attraverso metodi "non convenzionali"? Conosci il nostro corso sul cybersecurity awareness a fumetti? Red Hot Cyber sta ricercando un nuovo sponsor per una nuova puntata del fumetto Betti-RHC mentre il team è impegnato a realizzare 3 nuovi episodi che ci sono stati commissionati. Contattaci tramite WhatsApp al numero 375 593 1011 per richiedere ulteriori informazioni oppure alla casella di posta [email protected]
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Ad esempio, ordinare il feed delle notizie in ordine cronologico ha ridotto la disparità di attenzione, ma ha fatto sì che i contenuti più estremi venissero messi in primo piano. È una realtà che fa riflettere e che contrasta con le promesse delle aziende di costruire una “piazza digitale”, come
l’ha definita Elon Musk ) in cui tutti possano coesistere pacificamente.
Nonostante le aspettative, i risultati si sono rivelati poco incoraggianti. Nessuna delle soluzioni sperimentate ha realmente ridotto la polarizzazione all’interno della piattaforma simulata.
Al contrario, alcune misure hanno persino peggiorato la situazione. Il feed cronologico, ad esempio, ha sì ridotto la disuguaglianza nell’attenzione agli utenti, ma ha anche favorito l’ascesa di contenuti estremi, portandoli in cima alla visibilità.
Gli studiosi hanno sottolineato che i contenuti tossici tendono a creare reti resistenti, in grado di sostenere e amplificare la loro diffusione, indipendentemente dai tentativi di limitarne l’impatto.
Con l’avanzare dell’intelligenza artificiale generativa, la quantità di questi contenuti è destinata a crescere ulteriormente. Ciò rappresenta una sfida profonda per i modelli tradizionali dei social media e rende sempre più urgente la ricerca di cambiamenti radicali per garantire comunità digitali sane.
Redazione
Dal 1° luglio, Cloudflare ha bloccato 416 miliardi di richieste da parte di bot di intelligenza artificiale che tentavano di estrarre contenuti dai siti web dei suoi clienti. Secondo Matthew Prince, ...

Nel 2025, le comunità IT e della sicurezza sono in fermento per un solo nome: “React2Shell“. Con la divulgazione di una nuova vulnerabilità, CVE-2025-55182, classificata CVSS 10.0, sviluppatori ...

Cloudflare torna sotto i riflettori dopo una nuova ondata di disservizi che, nella giornata del 5 dicembre 2025, sta colpendo diversi componenti della piattaforma. Oltre ai problemi al Dashboard e all...

Le spie informatiche cinesi sono rimaste nascoste per anni nelle reti di organizzazioni critiche, infettando le infrastrutture con malware sofisticati e rubando dati, avvertono agenzie governative ed ...

Nove mesi dopo la sua implementazione in Europa, lo strumento di intelligenza artificiale (IA) conversazionale di Meta, integrato direttamente in WhatsApp, sarà oggetto di indagine da parte della Com...