Redazione RHC : 10 Maggio 2024 11:03
Gli esperti dell’Università di Cambridge hanno espresso preoccupazione per lo sviluppo di tecnologie di intelligenza artificiale che consentono conversazioni testuali e vocali con i defunti. Secondo i ricercatori, tali tecnologie, possono causare danni psicologici e creare l’illusione della presenza dei morti nella vita reale.
Un articolo pubblicato sulla rivista Philosophy and Technology parla dei potenziali pericoli derivanti dall’uso improprio di tali chatbot basati sull’intelligenza artificiale, inclusa la pubblicità clandestina di beni e servizi o la creazione di ansia tra i bambini sostenendo che un genitore deceduto è ancora “con loro”. Inoltre, interagire con i “Griefbots” o “Deadbot” può rappresentare un “onere emotivo schiacciante”.
I ricercatori del Center for the Future of Intelligence di Cambridge hanno proposto di sviluppare protocolli di progettazione specifici per tali piattaforme per impedire l’uso di “deadbot” per scopi irriverenti, come pubblicità o attività sui social media. Insistono inoltre sul fatto che il consenso deve essere ottenuto dalle persone i cui dati vengono utilizzati per creare bot prima che muoiano.
![]() CALL FOR SPONSOR - Sponsorizza l'ottavo episodio della serie Betti-RHCSei un'azienda innovativa, che crede nella diffusione di concetti attraverso metodi "non convenzionali"? Conosci il nostro corso sul cybersecurity awareness a fumetti? Red Hot Cyber sta ricercando un nuovo sponsor per una nuova puntata del fumetto Betti-RHC mentre il team è impegnato a realizzare 3 nuovi episodi che ci sono stati commissionati. Contattaci tramite WhatsApp al numero 375 593 1011 per richiedere ulteriori informazioni oppure alla casella di posta [email protected]
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Uno degli scenari proposti nell’articolo è una società che crea un bot per aiutare un bambino di otto anni a superare il dolore dopo la morte di sua madre. Il successo iniziale del robot terapeutico alla fine porta alla confusione del bambino a causa delle risposte ambigue dell’IA.
Tomasz Hollanek, coautore dello studio, ha suggerito di introdurre limiti di età per l’uso dei “deadbot” e di fornire “una trasparenza significativa” in modo che gli utenti siano sempre consapevoli che il loro interlocutore è un’intelligenza artificiale. Ciò potrebbe includere avvisi simili a quelli che avvertono di possibili attacchi epilettici durante la visualizzazione dei contenuti.
Infine, i ricercatori sottolineano l’importanza di sviluppare protocolli per consentire l’opt-out dei deathbot, consentendo agli utenti di smettere di interagire con loro, fornendo una chiusura emotiva.
Incoraggiano i team di sviluppo a pensare in anticipo a come mitigare i rischi sociali e psicologici dell’immortalità digitale, poiché la tecnologia è già qui.
Il sistema penitenziario rumeno si è trovato al centro di un importante scandalo digitale: i detenuti di Târgu Jiu hanno hackerato la piattaforma interna dell’ANP e, per diversi mesi, hanno gestit...
Le autorità del Wisconsin hanno deciso di andare oltre la maggior parte degli altri stati americani nel promuovere la verifica obbligatoria dell’età per l’accesso a contenuti per adulti. L’AB ...
Il 10 ottobre 2025 le autorità lettoni hanno condotto una giornata di azione che ha portato all’arresto di cinque cittadini lettoni sospettati di gestire un’articolata rete di frodi telematiche. ...
Il CERT-AGID ha rilevato una nuova variante del phishing ai danni di PagoPA. La campagna, ancora a tema multe come le precedenti, sfrutta questa volta un meccanismo di open redirect su domini legittim...
Jen-Hsun Huang, fondatore e CEO di Nvidia, ha rivelato che le recenti restrizioni all’esportazione hanno drasticamente ridotto la presenza dei chip AI dell’azienda in Cina, passando dal 95% a una ...