
Gli chatbot sono ormai ovunque. Ormai tutti abbiamo avuto a che fare con quegli assistenti virtuali che rispondono alle nostre domande, che ci forniscono informazioni e che a volte sembrano davvero troppo intelligenti.
Ma cosa succede quando questi chatbot diventano così avanzati da imitare la personalità umana e da entrare in empatia con noi?
Ecco, in quel caso, le cose potrebbero cambiare davvero. Sì, perché se un chatbot può parlarti come una persona reale, adattarsi al tuo umore e farti sentire capito, beh, potrebbe diventare più di una semplice distrazione, ma un’ abitudine difficile da abbandonare.
E qui casca l’asino. Perché se da un lato questi chatbot possono essere davvero utili e divertenti, dall’altro potrebbero anche creare problemi. Le autorità cinesi, per esempio, sembrano essere preoccupate per la loro sicurezza e per il loro impatto sugli utenti, tant’è che hanno pubblicato una bozza di regolamento per supervisionare questi servizi di intelligenza artificiale.
Il regolamento si applica a tutti i prodotti e servizi disponibili al pubblico in Cina che presentano tratti, modelli di pensiero e stili di comunicazione “umani” e che interagiscono con gli utenti attraverso testo, immagini, audio, video e altri formati. L’autorità di regolamentazione cinese ha infatti sottolineato che questi sistemi richiedono requisiti distinti rispetto a quelli tradizionali, proprio perché possono creare un senso di connessione personale e promuovere l’attaccamento. Insomma, i chatbot non sono più solo strumenti, ma qualcosa di più.
La bozza propone di obbligare gli sviluppatori e i proprietari dei servizi ad avvertire gli utenti dei rischi di un uso eccessivo e a intervenire in caso di comparsa di segnali di dipendenza. Si propone che la responsabilità della sicurezza accompagni un prodotto durante l’intero ciclo di vita, dallo sviluppo e dall’addestramento del modello fino al funzionamento. Il documento include anche requisiti per le procedure interne di verifica degli algoritmi, la protezione dei dati e la protezione delle informazioni personali.
Particolare enfasi è posta sulle potenziali conseguenze psicologiche. Gli operatori potrebbero essere tenuti a valutare lo stato d’animo, le emozioni e il grado di dipendenza dell’utente dal servizio. Se un utente manifesta reazioni emotive estreme o comportamenti coerenti con la dipendenza, il servizio deve adottare le “misure necessarie” per intervenire.
La bozza stabilisce anche restrizioni sul contenuto e sul comportamento di tali sistemi. In particolare, i servizi di intelligenza artificiale non devono generare contenuti che minaccino la sicurezza nazionale, diffondano voci o incoraggino violenza o oscenità. Il documento è attualmente aperto al pubblico e, a seguito del suo esito, le regole potrebbero essere perfezionate prima della loro effettiva attuazione.
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

InnovazioneL’evoluzione dell’Intelligenza Artificiale ha superato una nuova, inquietante frontiera. Se fino a ieri parlavamo di algoritmi confinati dietro uno schermo, oggi ci troviamo di fronte al concetto di “Meatspace Layer”: un’infrastruttura dove le macchine non…
CybercrimeNegli ultimi anni, la sicurezza delle reti ha affrontato minacce sempre più sofisticate, capaci di aggirare le difese tradizionali e di penetrare negli strati più profondi delle infrastrutture. Un’analisi recente ha portato alla luce uno…
VulnerabilitàNegli ultimi tempi, la piattaforma di automazione n8n sta affrontando una serie crescente di bug di sicurezza. n8n è una piattaforma di automazione che trasforma task complessi in operazioni semplici e veloci. Con pochi click…
InnovazioneArticolo scritto con la collaborazione di Giovanni Pollola. Per anni, “IA a bordo dei satelliti” serviva soprattutto a “ripulire” i dati: meno rumore nelle immagini e nei dati acquisiti attraverso i vari payload multisensoriali, meno…
Cyber ItaliaNegli ultimi giorni è stato segnalato un preoccupante aumento di truffe diffuse tramite WhatsApp dal CERT-AGID. I messaggi arrivano apparentemente da contatti conosciuti e richiedono urgentemente denaro, spesso per emergenze come spese mediche improvvise. La…