Redazione RHC : 10 Maggio 2024 11:03
Gli esperti dell’Università di Cambridge hanno espresso preoccupazione per lo sviluppo di tecnologie di intelligenza artificiale che consentono conversazioni testuali e vocali con i defunti. Secondo i ricercatori, tali tecnologie, possono causare danni psicologici e creare l’illusione della presenza dei morti nella vita reale.
Un articolo pubblicato sulla rivista Philosophy and Technology parla dei potenziali pericoli derivanti dall’uso improprio di tali chatbot basati sull’intelligenza artificiale, inclusa la pubblicità clandestina di beni e servizi o la creazione di ansia tra i bambini sostenendo che un genitore deceduto è ancora “con loro”. Inoltre, interagire con i “Griefbots” o “Deadbot” può rappresentare un “onere emotivo schiacciante”.
I ricercatori del Center for the Future of Intelligence di Cambridge hanno proposto di sviluppare protocolli di progettazione specifici per tali piattaforme per impedire l’uso di “deadbot” per scopi irriverenti, come pubblicità o attività sui social media. Insistono inoltre sul fatto che il consenso deve essere ottenuto dalle persone i cui dati vengono utilizzati per creare bot prima che muoiano.
Distribuisci i nostri corsi di formazione diventando un nostro Affiliato
Se sei un influencer, gestisci una community, un blog, un profilo social o semplicemente hai tanta voglia di diffondere cultura digitale e cybersecurity, questo è il momento perfetto per collaborare con RHC Academy. Unisciti al nostro Affiliate Program: potrai promuovere i nostri corsi online e guadagnare provvigioni ad ogni corso venduto. Fai parte del cambiamento. Diffondi conoscenza, costruisci fiducia, genera valore.
Contattaci tramite WhatsApp al 375 593 1011 per richiedere ulteriori informazioni oppure scriviti alla casella di posta [email protected]
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
Uno degli scenari proposti nell’articolo è una società che crea un bot per aiutare un bambino di otto anni a superare il dolore dopo la morte di sua madre. Il successo iniziale del robot terapeutico alla fine porta alla confusione del bambino a causa delle risposte ambigue dell’IA.
Tomasz Hollanek, coautore dello studio, ha suggerito di introdurre limiti di età per l’uso dei “deadbot” e di fornire “una trasparenza significativa” in modo che gli utenti siano sempre consapevoli che il loro interlocutore è un’intelligenza artificiale. Ciò potrebbe includere avvisi simili a quelli che avvertono di possibili attacchi epilettici durante la visualizzazione dei contenuti.
Infine, i ricercatori sottolineano l’importanza di sviluppare protocolli per consentire l’opt-out dei deathbot, consentendo agli utenti di smettere di interagire con loro, fornendo una chiusura emotiva.
Incoraggiano i team di sviluppo a pensare in anticipo a come mitigare i rischi sociali e psicologici dell’immortalità digitale, poiché la tecnologia è già qui.
I ricercatori di Okta hanno notato che aggressori sconosciuti stanno utilizzando lo strumento di intelligenza artificiale generativa v0 di Vercel per creare pagine false che imitano qu...
Google è al centro di un’imponente causa in California che si è conclusa con la decisione di pagare oltre 314 milioni di dollari agli utenti di smartphone Android nello stato. Una giu...
La RHC Conference 2025, organizzata da Red Hot Cyber, ha rappresentato un punto di riferimento per la comunità italiana della cybersecurity, offrendo un ricco programma di talk, workshop e compet...
Nella giornata di ieri, Red Hot Cyber ha pubblicato un approfondimento su una grave vulnerabilità scoperta in SUDO (CVE-2025-32463), che consente l’escalation dei privilegi a root in ambie...
Il Dipartimento di Giustizia degli Stati Uniti ha annunciato la scoperta di un sistema su larga scala in cui falsi specialisti IT provenienti dalla RPDC i quali ottenevano lavoro presso aziende americ...
Copyright @ REDHOTCYBER Srl
PIVA 17898011006