
Gli esperti dell’Università di Cambridge hanno espresso preoccupazione per lo sviluppo di tecnologie di intelligenza artificiale che consentono conversazioni testuali e vocali con i defunti. Secondo i ricercatori, tali tecnologie, possono causare danni psicologici e creare l’illusione della presenza dei morti nella vita reale.
Un articolo pubblicato sulla rivista Philosophy and Technology parla dei potenziali pericoli derivanti dall’uso improprio di tali chatbot basati sull’intelligenza artificiale, inclusa la pubblicità clandestina di beni e servizi o la creazione di ansia tra i bambini sostenendo che un genitore deceduto è ancora “con loro”. Inoltre, interagire con i “Griefbots” o “Deadbot” può rappresentare un “onere emotivo schiacciante”.
I ricercatori del Center for the Future of Intelligence di Cambridge hanno proposto di sviluppare protocolli di progettazione specifici per tali piattaforme per impedire l’uso di “deadbot” per scopi irriverenti, come pubblicità o attività sui social media. Insistono inoltre sul fatto che il consenso deve essere ottenuto dalle persone i cui dati vengono utilizzati per creare bot prima che muoiano.
Avvio delle iscrizioni al corso "Cyber Offensive Fundamentals" Vuoi smettere di guardare tutorial e iniziare a capire davvero come funziona la sicurezza informatica? La base della sicurezza informatica, al di là di norme e tecnologie, ha sempre un unico obiettivo: fermare gli attacchi dei criminali informatici. Pertanto "Pensa come un attaccante, agisci come un difensore". Ti porteremo nel mondo dell'ethical hacking e del penetration test come nessuno ha mai fatto prima. Per informazioni potete accedere alla pagina del corso oppure contattarci tramite WhatsApp al numero 379 163 8765 oppure scrivendoci alla casella di posta [email protected].
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Uno degli scenari proposti nell’articolo è una società che crea un bot per aiutare un bambino di otto anni a superare il dolore dopo la morte di sua madre. Il successo iniziale del robot terapeutico alla fine porta alla confusione del bambino a causa delle risposte ambigue dell’IA.
Tomasz Hollanek, coautore dello studio, ha suggerito di introdurre limiti di età per l’uso dei “deadbot” e di fornire “una trasparenza significativa” in modo che gli utenti siano sempre consapevoli che il loro interlocutore è un’intelligenza artificiale. Ciò potrebbe includere avvisi simili a quelli che avvertono di possibili attacchi epilettici durante la visualizzazione dei contenuti.
Infine, i ricercatori sottolineano l’importanza di sviluppare protocolli per consentire l’opt-out dei deathbot, consentendo agli utenti di smettere di interagire con loro, fornendo una chiusura emotiva.
Incoraggiano i team di sviluppo a pensare in anticipo a come mitigare i rischi sociali e psicologici dell’immortalità digitale, poiché la tecnologia è già qui.
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

VulnerabilitàFino a poco tempo fa, le vulnerabilità zero-day sembravano artefatti esotici provenienti dal mondo delle operazioni speciali e dello spionaggio. Ora sono uno strumento comune per hackerare le reti aziendali, e non solo perché gli…
CulturaMentre il settore dibatte su quale rete neurale sia la “più intelligente” e quale framework sia il “più moderno”, tecnologie vecchie di decenni continuano a turbinare silenziosamente sotto la superficie del settore bancario. Quest’anno, COBOL…
CulturaVuoi smettere di guardare tutorial e iniziare a capire davvero come funziona la sicurezza informatica? Se la risposta è SI, ti consigliamo di leggere questo articolo. Il panorama della sicurezza informatica cambia velocemente: nuove vulnerabilità,…
InnovazioneIl professore di informatica Geoffrey Hinton, uno dei fondatori delle moderne tecnologie di intelligenza artificiale, ha affermato che l’IA potrebbe portare a perdite di posti di lavoro su larga scala già nel 2026. Secondo lui,…
DirittiPrima di addentrarci nell’analisi, è bene precisare che questo contributo è la prima parte di una ricerca più estesa. Nel prossimo articolo esploreremo il conflitto tra algoritmi di rilevazione automatica e crittografia end-to-end (E2EE), analizzando…