Red Hot Cyber
Sicurezza Informatica, Notizie su Cybercrime e Analisi Vulnerabilità

Flirt, erotismo e fine della censura! OpenAI cambierà le regole di ChatGPT

15 Ottobre 2025 14:25

OpenAI sta preparando un’importante modifica alle regole di ChatGPT: a partire da dicembre, gli utenti che hanno superato la verifica dell’età potranno interagire con contenuti per adulti, inclusi quelli erotici.

L’amministratore delegato dell’azienda, Sam Altman, lo ha annunciato, sottolineando il suo impegno nel rispetto degli utenti adulti. Questa modifica farà parte del sistema di limitazione dell’età che OpenAI intende implementare pienamente entro la fine dell’anno.

L’azienda aveva precedentemente annunciato l’intenzione di consentire lo sviluppo di app ChatGPT con contenuti per adulti, soggetto a tutti i controlli richiesti e alla verifica dell’età. Ora è chiaro che non si tratta solo di sviluppi esterni: la piattaforma stessa inizierà a supportare dialoghi espliciti con l’intelligenza artificiale, soggetti alle opportune condizioni di accesso.

Questa mossa sembra una logica prosecuzione della competizione nel segmento dei dispositivi di intelligenza artificiale personalizzati. Ad esempio, la startup xAI di Elon Musk ha già rilasciato dei compagni virtuali ammiccanti sotto forma di modelli anime 3D, disponibili nell’app Grok. Tuttavia, a differenza delle soluzioni di xAI, attualmente più adatte al gioco, OpenAI enfatizza la controllabilità e la sicurezza psicologica.

Ulteriori annunci includono la reintroduzione di GPT-4o come opzione in ChatGPT, dopo che il nuovo motore GPT-5 predefinito è stato criticato per la sua perdita di “umanità”. OpenAI ha riconosciuto che un’implementazione eccessivamente cauta delle restrizioni relative alla salute mentale ha reso la sua IA meno utile e meno piacevole per la maggior parte degli utenti. Ciò ha spinto l’azienda a creare strumenti per identificare gli utenti in difficoltà e ad allentare gradualmente i filtri laddove fosse sicuro farlo.

Per sviluppare una strategia a lungo termine per scenari di comunicazione sensibili, OpenAI ha istituito un comitato consultivo interno sul benessere, composto da otto esperti che studiano l’impatto della tecnologia digitale sulla salute mentale. Tuttavia, come sottolinea Ars Technica, non è stato incluso nel comitato nemmeno un esperto di prevenzione del suicidio, nonostante gli appelli pubblici delle organizzazioni competenti a rafforzare le tutele per gli utenti vulnerabili .

Tutti questi passaggi indicano l’impegno di OpenAI ad adottare un atteggiamento più flessibile e diversificato nell’uso dei suoi strumenti di intelligenza artificiale, dimostrando al contempo la volontà di adattarsi alle richieste della società, ai requisiti etici e all’ambiente competitivo.

Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Luca Vinciguerra 300x300
Machine Learning Engineer specializzato nel Natural Language Processing. Appassionato di Intelligenza Artificiale, Coding e tecnologia in generale. Aspetta l'avvento di Skynet.
Aree di competenza: Artificial Intelligence Engineer, Machine Learning & Deep Learning Specialist, Python Developer

Articoli in evidenza

Immagine del sitoCybercrime
Campagna di phishing su Signal in Europa: sospetto coinvolgimento di attori statali
Bajram Zeqiri - 07/02/2026

Le autorità tedesche hanno recentemente lanciato un avviso riguardante una sofisticata campagna di phishing che prende di mira gli utenti di Signal in Germania e nel resto d’Europa. L’attacco si concentra su profili specifici, tra…

Immagine del sitoInnovazione
Robot in cerca di carne: Quando l’AI affitta periferiche. Il tuo corpo!
Silvia Felici - 06/02/2026

L’evoluzione dell’Intelligenza Artificiale ha superato una nuova, inquietante frontiera. Se fino a ieri parlavamo di algoritmi confinati dietro uno schermo, oggi ci troviamo di fronte al concetto di “Meatspace Layer”: un’infrastruttura dove le macchine non…

Immagine del sitoCybercrime
DKnife: il framework di spionaggio Cinese che manipola le reti
Pietro Melillo - 06/02/2026

Negli ultimi anni, la sicurezza delle reti ha affrontato minacce sempre più sofisticate, capaci di aggirare le difese tradizionali e di penetrare negli strati più profondi delle infrastrutture. Un’analisi recente ha portato alla luce uno…

Immagine del sitoVulnerabilità
Così tante vulnerabilità in n8n tutti in questo momento. Cosa sta succedendo?
Agostino Pellegrino - 06/02/2026

Negli ultimi tempi, la piattaforma di automazione n8n sta affrontando una serie crescente di bug di sicurezza. n8n è una piattaforma di automazione che trasforma task complessi in operazioni semplici e veloci. Con pochi click…

Immagine del sitoInnovazione
L’IA va in orbita: Qwen 3, Starcloud e l’ascesa del calcolo spaziale
Sergio Corpettini - 06/02/2026

Articolo scritto con la collaborazione di Giovanni Pollola. Per anni, “IA a bordo dei satelliti” serviva soprattutto a “ripulire” i dati: meno rumore nelle immagini e nei dati acquisiti attraverso i vari payload multisensoriali, meno…