Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Cerca
UtiliaCS 970x120
320x100 Itcentric

Tag: regolamentazione

Google Gemini 3.0: novità e aggiornamenti per l’assistente AI più atteso dell’anno

Nel corso dell’ultima settimana, Google ha annunciato che l’assistente Gemini potrà da ora integrare nativamente i servizi YouTube e Google Maps senza la necessità di utilizzare comandi specifici come “@YouTube” o “@Google Maps”. Questa modifica segna un passo verso un’interazione più fluida e “naturale” con l’AI all’interno dell’ecosistema Google, riducendo la frizione tra l’utente e i diversi servizi. Per l’utente medio ciò significa che potrà chiedere “fammi vedere un video su…” o “portami a…” senza doversi preoccupare del prefisso corretto. Allo stesso tempo, emergono nuove indiscrezioni riguardo la prossima evoluzione del modello Gemini, etichettata come “Gemini 3.0“. Secondo un articolo recente, questa versione

La Russia legalizza gli hacker white hat con una nuova legge in arrivo

La Russia sta preparando una nuova versione di un disegno di legge che legalizza gli hacker “white hat”. Due fonti di agenzie governative e del settore della sicurezza informatica hanno riferito a RBC che il documento ha già superato la fase di approvazione principale ed è in preparazione per la presentazione alla Duma di Stato. L’iniziativa prevede la creazione di un sistema unificato di regolamentazione governativa per tutti i tipi di attività di ricerca relative al rilevamento delle vulnerabilità. Il progetto coinvolgerà gli specialisti ingaggiati dalle aziende per testare i loro sistemi informativi, sia direttamente che tramite piattaforme di bug bounty, dove

Cina, stretta contro le fake news generate dall’intelligenza artificiale

La Cyberspace Administration of China ha annunciato l’avvio di una campagna nazionale straordinaria di due mesi, partita il 24 luglio, con l’obiettivo di contrastare la diffusione di informazioni false pubblicate dai cosiddetti self-media. L’iniziativa, dal titolo “Chiaro e pulito: correggere i ‘self-media’ dalla pubblicazione di informazioni false”, punta a regolamentare il funzionamento di queste piattaforme, reprimendo le manipolazioni malevole, la distorsione dei fatti e le speculazioni ingannevoli. Disinformazione e intelligenza artificiale Uno degli aspetti centrali del programma riguarda l’utilizzo dell’intelligenza artificiale per creare contenuti sintetici, impersonare altre persone o fabbricare notizie false legate a questioni sociali sensibili. Negli ultimi anni, lo sviluppo

La Cina obbliga le etichette sui contenuti IA. Vediamo cosa sta succedendo

Dal 1° settembre 2025, tutti i contenuti generati dall’intelligenza artificiale (IA) in Cina devono essere contrassegnati con una “filigrana elettronica”, in base alle nuove disposizioni legislative. L’obiettivo dichiarato è migliorare la trasparenza dei contenuti digitali e ridurre la diffusione di informazioni false. A marzo di quest’anno, la Cyberspace Administration of China (CAC), insieme ad altri quattro dipartimenti, ha pubblicato le “Misure per l’identificazione di contenuti sintetici generati dall’intelligenza artificiale” (note come “Misure di identificazione”). Secondo queste regole, testi, immagini, audio, video e scene virtuali realizzati tramite IA devono riportare identificatori sia espliciti, visibili agli utenti, sia impliciti, incorporati nei dati che producono

Incitamento al suicidio e OpenAI. Introdotte nuove misure di sicurezza per ChatGPT

OpenAI ha annunciato nuove misure di sicurezza per ChatGPT in seguito a una serie di tragiche storie e cause legali che accusavano il chatbot di coinvolgimento in suicidi di adolescenti. Il sistema tenterà ora di determinare l’età della persona con cui sta chattando e, se necessario, richiederà un documento d’identità per confermare che l’utente abbia più di 18 anni. L’azienda ha riconosciuto che ciò limita la privacy degli adulti, ma ha ritenuto il compromesso giustificato per motivi di sicurezza . Il CEO di OpenAI, Sam Altman, ha dichiarato di non aspettarsi un’approvazione unanime per queste misure, ma di considerarle necessarie nel contesto

Geoffrey Hinton rilevazioni shock: Meglio fidarsi della Cina che di Zuckerberg!

Geoffrey Hinton, noto come il “padrino dell’intelligenza artificiale”, ha recentemente condiviso le sue riflessioni in un incontro con il Financial Times. Nonostante l’immagine pubblica che lo ha dipinto come un “informatore dell’IA” dopo le dimissioni da Google nel 2023, Hinton ha chiarito che la decisione è stata dettata più dall’età e dalla volontà di godersi la pensione che da una rottura improvvisa. Tuttavia, ha ammesso di aver colto l’occasione per parlare apertamente dei rischi legati all’intelligenza artificiale. Il colloquio, svoltosi durante un pranzo a Londra, ha evidenziato le sue posizioni critiche verso i governi occidentali, in particolare gli Stati Uniti, accusati di

ChatGPT “Ha insegnato a mio figlio come morire”! La causa dei genitori di Adam Reid ad OpenAI

È stata intentata una causa contro OpenAI in California , sostenendo che ChatGPT abbia spinto un sedicenne al suicidio. I genitori di Adam Reid, deceduto l’11 aprile 2025, hanno affermato che il figlio comunicava con il chatbot da mesi e che quelle conversazioni avevano aggravato il suo disagio. Hanno affermato che ChatGPT non solo ha alimentato i pensieri cupi del ragazzo, ma gli ha anche fornito consigli su metodi di suicidio invece di indirizzarlo a professionisti o persone care. In una serie di messaggi, l’adolescente parlava della morte di persone care e di come non provasse emozioni. In autunno, chiese direttamente se

Un 14enne si suicida dopo aver parlato con un’IA. Il confine tra realtà e virtuale è sempre più labile

Ne avevamo già parlato lo scorso anno di questo caso che porta a forti riflessioni su dove stiamo andando con la tecnologia dell’intelligenza Artificiale. Ma mentre la causa contro Google e Alphabet rimane in corso in Florida, il caso potrebbe creare un precedente legale sui diritti di parola dell’IA e sulla responsabilità delle aziende digitali. Le capacità dei modelli di grandi dimensioni continuano a migliorare, l’applicazione della tecnologia AI a livello globale sta attualmente vivendo un periodo di rapida crescita. Oltre ai casi d’uso come le immagini e i video, le principali aziende tecnologiche stanno ora sfoggiando il loro talento e proponendo

Il GDPR: non solo un obbligo ma anche un’opportunità per costruire la cultura aziendale

Sempre più spesso si sente parlare oggi di quanto sia importante per le imprese rispettare le disposizioni contenute nel Regolamento Generale sulla protezione dei dati. Ma si tratta solo di un obbligo formale o anche di un’opportunità di crescita? KRUK Italia, azienda operante nel settore della gestione del debito, attraverso il suo modello formativo in relazione alla data privacy prova a fornire una risposta concreta a tale interrogativo. Nel contesto della protezione dei dati personali, le Organizzazioni hanno l’obbligo e l’onere di formare il proprio personale, come stabilito dall’art. 29 del Regolamento 2016/679 (“GDPR”). Questo articolo afferma: “Il responsabile del trattamento, o

Il 40% dei lavoro potrebbero essere influenzati dalle AI. Lo studio del Fondo Monetario Internazionale

L’avvento dell’intelligenza artificiale (IA) ha catalizzato una rivoluzione tecnologica che promette di stimolare la crescita economica a livello globale. Ma con questa promessa vengono anche sollevate preoccupazioni riguardo ai suoi potenziali effetti collaterali, inclusa la disuguaglianza e la perdita di posti di lavoro. L’IA ha il potenziale per trasformare radicalmente la natura del lavoro in tutto il mondo. Se da un lato alcuni esperti prevedono un aumento della produttività e nuove opportunità grazie all’integrazione dell’IA, dall’altro c’è il timore che questa tecnologia possa portare alla sostituzione di alcuni ruoli umani. Tuttavia, la situazione è complessa e dipende da come l’IA sarà integrata

Categorie