
Redazione RHC : 20 Settembre 2025 09:34
I ricercatori dell’Università di Amsterdam hanno realizzato un esperimento inedito, creando un social network popolato esclusivamente da bot con intelligenza artificiale. L’obiettivo principale era analizzare in che modo le dinamiche digitali potessero essere influenzate da diverse misure di moderazione.
L’idea di fondo era verificare l’efficacia di strumenti capaci di ridurre due dei problemi più gravi dei social contemporanei: la polarizzazione e la tossicità nelle interazioni online.
Per questo, sono state messe alla prova sei strategie differenti. Tra queste figuravano il passaggio a un feed cronologico, l’aumento della visibilità di opinioni divergenti, l’occultamento delle statistiche degli iscritti e la rimozione delle descrizioni dei profili.
Christmas Sale -40% 𝗖𝗵𝗿𝗶𝘀𝘁𝗺𝗮𝘀 𝗦𝗮𝗹𝗲! Sconto del 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮 del Corso "Dark Web & Cyber Threat Intelligence" in modalità E-Learning sulla nostra Academy!🚀
Fino al 𝟯𝟭 𝗱𝗶 𝗗𝗶𝗰𝗲𝗺𝗯𝗿𝗲, prezzi pazzi alla Red Hot Cyber Academy. 𝗧𝘂𝘁𝘁𝗶 𝗶 𝗰𝗼𝗿𝘀𝗶 𝘀𝗰𝗼𝗻𝘁𝗮𝘁𝗶 𝗱𝗲𝗹 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮.
Per beneficiare della promo sconto Christmas Sale, scrivici ad [email protected] o contattaci su Whatsapp al numero di telefono: 379 163 8765.
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Ad esempio, ordinare il feed delle notizie in ordine cronologico ha ridotto la disparità di attenzione, ma ha fatto sì che i contenuti più estremi venissero messi in primo piano. È una realtà che fa riflettere e che contrasta con le promesse delle aziende di costruire una “piazza digitale”, come
l’ha definita Elon Musk ) in cui tutti possano coesistere pacificamente.
Nonostante le aspettative, i risultati si sono rivelati poco incoraggianti. Nessuna delle soluzioni sperimentate ha realmente ridotto la polarizzazione all’interno della piattaforma simulata.
Al contrario, alcune misure hanno persino peggiorato la situazione. Il feed cronologico, ad esempio, ha sì ridotto la disuguaglianza nell’attenzione agli utenti, ma ha anche favorito l’ascesa di contenuti estremi, portandoli in cima alla visibilità.
Gli studiosi hanno sottolineato che i contenuti tossici tendono a creare reti resistenti, in grado di sostenere e amplificare la loro diffusione, indipendentemente dai tentativi di limitarne l’impatto.
Con l’avanzare dell’intelligenza artificiale generativa, la quantità di questi contenuti è destinata a crescere ulteriormente. Ciò rappresenta una sfida profonda per i modelli tradizionali dei social media e rende sempre più urgente la ricerca di cambiamenti radicali per garantire comunità digitali sane.
Seguici su Google News, LinkedIn, Facebook e Instagram per ricevere aggiornamenti quotidiani sulla sicurezza informatica. Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.
Redazione
È stato rilasciato uno strumento che consente il monitoraggio discreto dell’attività degli utenti di WhatsApp e Signal utilizzando solo un numero di telefono. Il meccanismo di monitoraggio copre o...

Il MITRE ha reso pubblica la classifica delle 25 più pericolose debolezze software previste per il 2025, secondo i dati raccolti attraverso le vulnerabilità del national Vulnerability Database. Tali...

Un recente resoconto del gruppo Google Threat Intelligence (GTIG) illustra gli esiti disordinati della diffusione di informazioni, mettendo in luce come gli avversari più esperti abbiano già preso p...

All’interno del noto Dark Forum, l’utente identificato come “espansive” ha messo in vendita quello che descrive come l’accesso al pannello di amministrazione dell’Agenzia delle Entrate. Tu...

In seguito alla scoperta di due vulnerabilità zero-day estremamente critiche nel motore del browser WebKit, Apple ha pubblicato urgentemente degli aggiornamenti di sicurezza per gli utenti di iPhone ...