
Gli chatbot sono ormai ovunque. Ormai tutti abbiamo avuto a che fare con quegli assistenti virtuali che rispondono alle nostre domande, che ci forniscono informazioni e che a volte sembrano davvero troppo intelligenti.
Ma cosa succede quando questi chatbot diventano così avanzati da imitare la personalità umana e da entrare in empatia con noi?
Ecco, in quel caso, le cose potrebbero cambiare davvero. Sì, perché se un chatbot può parlarti come una persona reale, adattarsi al tuo umore e farti sentire capito, beh, potrebbe diventare più di una semplice distrazione, ma un’ abitudine difficile da abbandonare.
Avvio delle iscrizioni al corso Cyber Offensive Fundamentals Vuoi smettere di guardare tutorial e iniziare a capire davvero come funziona la sicurezza informatica? La base della sicurezza informatica, al di là di norme e tecnologie, ha sempre un unico obiettivo: fermare gli attacchi dei criminali informatici. Pertanto "Pensa come un attaccante, agisci come un difensore". Ti porteremo nel mondo dell'ethical hacking e del penetration test come nessuno ha mai fatto prima. Per informazioni potete accedere alla pagina del corso oppure contattarci tramite WhatsApp al numero 379 163 8765 oppure scrivendoci alla casella di posta [email protected].
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
E qui casca l’asino. Perché se da un lato questi chatbot possono essere davvero utili e divertenti, dall’altro potrebbero anche creare problemi. Le autorità cinesi, per esempio, sembrano essere preoccupate per la loro sicurezza e per il loro impatto sugli utenti, tant’è che hanno pubblicato una bozza di regolamento per supervisionare questi servizi di intelligenza artificiale.
Il regolamento si applica a tutti i prodotti e servizi disponibili al pubblico in Cina che presentano tratti, modelli di pensiero e stili di comunicazione “umani” e che interagiscono con gli utenti attraverso testo, immagini, audio, video e altri formati. L’autorità di regolamentazione cinese ha infatti sottolineato che questi sistemi richiedono requisiti distinti rispetto a quelli tradizionali, proprio perché possono creare un senso di connessione personale e promuovere l’attaccamento. Insomma, i chatbot non sono più solo strumenti, ma qualcosa di più.
La bozza propone di obbligare gli sviluppatori e i proprietari dei servizi ad avvertire gli utenti dei rischi di un uso eccessivo e a intervenire in caso di comparsa di segnali di dipendenza. Si propone che la responsabilità della sicurezza accompagni un prodotto durante l’intero ciclo di vita, dallo sviluppo e dall’addestramento del modello fino al funzionamento. Il documento include anche requisiti per le procedure interne di verifica degli algoritmi, la protezione dei dati e la protezione delle informazioni personali.
Particolare enfasi è posta sulle potenziali conseguenze psicologiche. Gli operatori potrebbero essere tenuti a valutare lo stato d’animo, le emozioni e il grado di dipendenza dell’utente dal servizio. Se un utente manifesta reazioni emotive estreme o comportamenti coerenti con la dipendenza, il servizio deve adottare le “misure necessarie” per intervenire.
La bozza stabilisce anche restrizioni sul contenuto e sul comportamento di tali sistemi. In particolare, i servizi di intelligenza artificiale non devono generare contenuti che minaccino la sicurezza nazionale, diffondano voci o incoraggino violenza o oscenità. Il documento è attualmente aperto al pubblico e, a seguito del suo esito, le regole potrebbero essere perfezionate prima della loro effettiva attuazione.
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

CyberpoliticaIl CEO di Cloudflare, Matthew Prince, ha minacciato di chiudere le attività dell’azienda in Italia dopo che l’autorità di regolamentazione delle telecomunicazioni del Paese le ha imposto una multa pari al doppio del suo fatturato…
CybercrimeUn’analisi approfondita sulle connessioni infrastrutturali del gruppo emergente Orion Leaks e il suo possibile legame con l’ex gigante LockBit RaaS. Negli ultimi mesi, a seguito dell’Operazione Cronos, condotta da agenzie internazionali per smantellare l’infrastruttura e…
CybercrimeNegli ultimi mesi si sta parlando sempre più spesso di un cambio di paradigma nel cybercrime. Quello che per anni è stato percepito come un ecosistema prevalentemente digitale — fatto di frodi, furti di identità,…
CybercrimeA volte, per disattivare la protezione di Windows non è necessario attaccare direttamente l’antivirus. È sufficiente impedirne il corretto avvio. Un ricercatore che si fa chiamare Two Seven One Three (TwoSevenOneT) ha pubblicato su GitHub…
CulturaQuando la sicurezza fallisce prima ancora dell’errore Questo testo nasce dall’esperienza diretta, maturata osservando nel tempo numerosi casi di frodi e incidenti informatici, in cui il fattore umano nella sicurezza è stato l’elemento che ha…