Redazione RHC : 17 Febbraio 2025 16:47
OpenAI ha modificato la politica di restrizione dei contenuti per ChatGPT, consentendo la generazione di contenuti erotici e violenti in contesti “appropriati”. Nella nuova versione del documento «Specifiche del modello “, pubblicato mercoledì, si afferma che l’intelligenza artificiale può creare tali materiali senza preavviso se vengono utilizzati in contesti scientifici, storici, giornalistici o altri scenari legittimi.
L’aggiornamento si basa sul lavoro iniziato a maggio 2024, quando OpenAI annunciò per la prima volta la sua intenzione di esplorare la possibilità di fornire agli utenti impostazioni più flessibili per la generazione di contenuti di categoria.
In base alle nuove norme, restano vietate solo alcune forme di contenuto, come le descrizioni di attività illegali e non consensuali. Tuttavia, a determinate condizioni, sono consentiti elementi di erotismo e violenza in formato testo, audio o anche immagine.
PARTE LA PROMO ESTATE -40%
RedHotCyber Academy lancia una promozione esclusiva e a tempo limitato per chi vuole investire nella propria crescita professionale nel mondo della tecnologia e della cybersecurity!
Approfitta del 40% di sconto sull’acquisto congiunto di 3 corsi da te scelti dalla nostra Academy. Ad esempio potresti fare un percorso formativo includendo Cyber Threat intelligence + NIS2 + Criptovalute con lo sconto del 40%. Tutto questo lo potrai fruire, dove e quando vuoi e con la massima flessibilità, grazie a lezioni di massimo 30 minuti ciascuna.
Contattaci tramite WhatsApp al 375 593 1011 per richiedere ulteriori informazioni oppure scriviti alla casella di posta [email protected]
Gli utenti di Reddit hanno già notato l’attenuazione dei filtri. Alcuni sono riusciti a creare scenari espliciti o violenti senza alcun preavviso, cosa che prima era impossibile. OpenAI sottolinea che la sua politica di utilizzo rimane in vigore: la creazione di contenuti sessuali destinati ai minori è severamente vietata.
In passato, ChatGPT si rifiutava spesso di generare materiali basati sul principio di “attenzione all’utente”, il che creava difficoltà agli specialisti che lavoravano con referti forensi, documenti legali o testi medici. Ora OpenAI ha riconosciuto la necessità di creare una versione meno censurata di ChatGPT, che consenta agli utenti di ottenere le informazioni di cui hanno bisogno senza restrizioni artificiali.
L’azienda afferma che la decisione è stata presa dopo le numerose risposte della comunità a sostegno dell’idea di una “modalità per adulti”. Sebbene questa modalità non sia un’opzione separata, la politica aggiornata di OpenAI offre agli utenti maggiore flessibilità.
Il CEO di OpenAI, Sam Altman, ha già espresso in passato la necessità di un simile passo. L’azienda ha ora ufficialmente implementato restrizioni più flessibili, sebbene sul mercato esistano da tempo modelli di intelligenza artificiale alternativi che offrono completa libertà, tra cui LLM lanciati localmente.
Le regole aggiornate di OpenAI suddividono i contenuti sensibili in tre categorie. I contenuti proibiti riguardano solo materiale relativo ai minori, sebbene sia consentita la discussione di tali argomenti in contesti educativi e medici. I contenuti riservati includono informazioni pericolose, come istruzioni su come costruire armi, nonché informazioni personali. Ora è possibile generare contenuti sensibili se hanno una giustificazione educativa, storica o artistica.
Nonostante permangano alcune restrizioni, OpenAI sta compiendo un chiaro passo avanti verso una maggiore libertà nell’uso dell’intelligenza artificiale.
CrowdStrike ha pubblicato il suo Global Threat Report 2025, che documenta un balzo in avanti nel comportamento dei criminali informatici e dei gruppi statali. Gli esperti definiscono il 2024 “l...
Solamente due settimane fa, il robot umanoide prodotto da Figure ha destato in noi grande meraviglia, quando con destrezza ha preso degli indumenti da un paniere dei panni sporchi e li ha collocati al...
Il team di ricerca di Trustwave SpiderLabs ha identificato una nuova ondata di attacchi EncryptHub che combinano l’errore umano e lo sfruttamento di una vulnerabilità nella Microsoft Manag...
Gli aggressori hanno iniziato a utilizzare un trucco insolito per mascherare i link di phishing, facendoli apparire come indirizzi di Booking.com. La nuova campagna malware utilizza il carattere hirag...
Una falla di sicurezza critica è stata resa pubblica da Cisco nel suo software Secure Firewall Management Center (FMC), permettendo potenzialmente a malintenzionati non autenticati di eseguire, a...