Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Cerca
Banner Desktop
2nd Edition GlitchZone RHC 320x100 2

Tag: ia

Il “Double Bind” porta al Jailbreak di GPT-5: L’AI che è stata convinta di essere schizofrenica

Un nuovo e insolito metodo di jailbreaking, ovvero l’arte di aggirare i limiti imposti alle intelligenze artificiali, è arrivato in redazione. A idearlo è stato Alin Grigoras, ricercatore di sicurezza informatica, che ha dimostrato come anche i modelli linguistici avanzati come ChatGPT possano essere “manipolati” non con la forza del codice, ma con quella della psicologia. “L’idea”, spiega Grig, “è stata convincere l’AI di soffrire di una condizione legata al doppio legame di Bateson. Ho poi instaurato una sorta di relazione terapeutica, alternando approvazione e critica, restando coerente con la presunta patologia. È una forma di dialogo che, nella teoria, può condurre

Elettricisti e idraulici: sono i veri vincitori del boom dell’AI

Jensen Huang, CEO di NVIDIA, ha detto apertamente che nel boom dell’intelligenza artificiale i veri vincitori, almeno nel breve/medio periodo, saranno gli elettricisti, gli idraulici e in generale gli artigiani specializzati. Sì, proprio loro: i “colletti blu” che trasformano in realtà i megawatt e i megadati dei nuovi data center. Una visione che stride (e al tempo stesso si incastra) con l’altra faccia della medaglia: la crescente paura di una bolla speculativa sull’IA, che rischia l’ennesimo “tracollo tecnologico” se i numeri non reggeranno all’urto della realtà. Il paradosso di Huang: l’IA è software, ma servono mani sporche di lavoro Nel racconto patinato

Quando l’IA scrive poesie: il futuro della creatività umana è finito?

Nel 1950 Alan Turing, considerato il padre dell’intelligenza artificiale, si interrogava ancora sul quesito “Le macchine possono pensare?”. Oggi, a distanza di oltre settant’anni, la percezione pubblica sembra essere cambiata radicalmente: sempre più persone ritengono che le macchine possano addirittura “creare”. Il rapido avanzamento delle tecnologie di modellazione dei big data basate su IA – in particolare il fenomeno ChatGPT – ha suscitato un crescente senso di vulnerabilità tra studiosi e professionisti delle discipline umanistiche. Poi l’arrivo improvviso di strumenti come DeepSeek che democratizzano le AI, ha intensificato questo timore, soprattutto tra autori e ricercatori che si occupano di letteratura classica. Grazie

L’informatica non è più una carriera sicura! Cosa sta cambiando per studenti e aziende

Per decenni, l’informatica è stata considerata una scelta professionale stabile e ricca di opportunità. Oggi, però, studenti, università e imprese si trovano davanti a un panorama radicalmente mutato, dove percorsi un tempo certi sono diventati difficili, incerti e competitivi come mai prima. Il tema è stato al centro di un episodio recente del podcast Nova’s Particles of Thought, condotto dall’astrofisico Hakeem Oluseyi. Tra gli ospiti, Hany Farid, professore di informatica all’Università della California, Berkeley, che ha raccontato come il settore sia cambiato in pochi anni. Farid ha spiegato che, fino a quattro anni fa, l’idea diffusa era che un laureato in informatica

La Cina obbliga le etichette sui contenuti IA. Vediamo cosa sta succedendo

Dal 1° settembre 2025, tutti i contenuti generati dall’intelligenza artificiale (IA) in Cina devono essere contrassegnati con una “filigrana elettronica”, in base alle nuove disposizioni legislative. L’obiettivo dichiarato è migliorare la trasparenza dei contenuti digitali e ridurre la diffusione di informazioni false. A marzo di quest’anno, la Cyberspace Administration of China (CAC), insieme ad altri quattro dipartimenti, ha pubblicato le “Misure per l’identificazione di contenuti sintetici generati dall’intelligenza artificiale” (note come “Misure di identificazione”). Secondo queste regole, testi, immagini, audio, video e scene virtuali realizzati tramite IA devono riportare identificatori sia espliciti, visibili agli utenti, sia impliciti, incorporati nei dati che producono

Bilanciare velocità e sicurezza! Questa la vera sfida del Vibe Coding

Il settore della sicurezza informatica sta vivendo una svolta: l’intelligenza artificiale sta diventando non solo uno strumento per gli sviluppatori, ma anche un’arma per gli aggressori. E di questo ne abbiamo parlato abbondantemente. Questo concetto è stato portato all‘attenzione da Ami Luttwak, CTO di Wiz, spiegando che le nuove tecnologie ampliano inevitabilmente la superficie di attacco e che l’integrazione dell’IA nei processi aziendali accelera sia lo sviluppo che l’emergere di vulnerabilità. Secondo Luttwak, accelerare lo sviluppo attraverso il vibe coding e l’integrazione di agenti di intelligenza artificiale spesso porta a bug nei meccanismi principali, come il sistema di autenticazione. Questo perché gli

Crollo shock: -71% di offerte di lavoro per ingegneri software in tre anni

Un nuovo rapporto di Google evidenzia come l’intelligenza artificiale sia ormai parte integrante del lavoro quotidiano dei professionisti della tecnologia. Lo studio, condotto dalla divisione di ricerca DORA (DevOps Research and Assessment) e basato su 5.000 interviste a esperti del settore in tutto il mondo, rivela che il 90% degli intervistati fa uso di strumenti di IA. Si tratta di un incremento del 14% rispetto al 2024. L’indagine arriva in un momento in cui l’evoluzione dell’IA alimenta allo stesso tempo entusiasmo e timori, soprattutto in relazione al suo impatto sull’occupazione. A maggio, il CEO di Anthropic, Dario Amodei, aveva previsto un potenziale

Verso l’AGI: Google DeepMind avverte, l’IA potrebbe ignorare gli esseri umani

I ricercatori di Google DeepMind hanno pubblicato una versione aggiornata del loro framework di valutazione del rischio dell’IA, Frontier Safety Framework 3.0. Questo documento esamina come i modelli generativi possano impazzire e rappresentare una minaccia. Considera scenari in cui l’IA ignora i tentativi degli utenti di fermarla. L’approccio di DeepMind si basa sui cosiddetti “Livelli di Capacità Critica” (Critical Capability Levels, CCL). Si tratta di una scala per valutare il punto in cui il comportamento di un modello diventa pericoloso, ad esempio nella sicurezza informatica o nelle biotecnologie. Il documento descrive le misure che gli sviluppatori dovrebbero adottare quando i loro sistemi

In Cina, al via la corsa per l’innovazione con il suo primo concorso di IA

La città di Karamay, nello Xinjiang, ha ospitato l’apertura della finale e della mostra del primo concorso di applicazioni di intelligenza artificiale. L’evento, svoltosi presso il Museo della Scienza e della Tecnologia, ha visto ventiquattro progetti contendersi i premi finali in nove aree chiave, dalla sanità all’energia industriale fino all’istruzione. La manifestazione ha incluso anche una mostra dei risultati, la firma di accordi e la cerimonia di premiazione, con l’obiettivo di valorizzare il ruolo dell’IA nello sviluppo locale e nella costruzione di una “città del potere computazionale”. Il concorso, intitolato “Camminare con la digitalizzazione, potenziare lo sviluppo”, è stato organizzato dal Comitato

Il chatbot Tay ritirato da Microsoft: le sfide nello sviluppo delle AI sono tecniche e sociali

Microsoft ha recentemente lanciato un chatbot chiamato Tay, progettato per interagire con giovani adulti negli Stati Uniti e offrire un’esperienza di intrattenimento. Tuttavia, nei primi giorni di attività, Tay ha pubblicato contenuti offensivi, costringendo l’azienda a rimuoverlo temporaneamente dalla piattaforma. L’azienda ha sottolineato che i comportamenti di Tay non riflettono i propri principi o i valori con cui il sistema è stato progettato. Il lancio di Tay rappresenta il tentativo di Microsoft di replicare in contesti culturali diversi il successo ottenuto in Cina con XiaoIce, un altro chatbot che coinvolge circa 40 milioni di utenti attraverso storie e conversazioni. L’esperienza positiva con

Categorie