Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Cerca
LECS 970x120 1
2nd Edition GlitchZone RHC 320x100 2

Tag: Allineamento

AI sotto attacco: DeepSeek-R1 si comporta male nei test di Qualys

Milano, 6 febbraio 2025 – DeepSeek-R1, un innovativo modello linguistico di grandi dimensioni (LLM) recentemente rilasciato dalla startup cinese DeepSeek, ha catturato l’attenzione del settore dell’intelligenza artificiale. Il modello dimostra di avere prestazioni competitive, mostrandosi più efficiente dal punto di vista delle risorse. Il suo approccio all’addestramento e la sua accessibilità offrono un’alternativa al tradizionale sviluppo dell’AI su larga scala, rendendo più ampiamente disponibili le capacità avanzate. Per migliorare l’efficienza e preservare l’efficacia del modello, DeepSeek ha rilasciato diverse versioni distillate, adatte a diversi casi d’uso. Queste varianti, costruite su Llama e Qwen come modelli di base, sono disponibili in più dimensioni,

USA: DeepSeek come il Terrorismo! 20 anni di carcere e 100M$ di multa. La Proposta Shock

Influenza, Influenza, Influenza… Bloccare l’influenza è la parola d’ordine negli Stati Uniti D’America, con qualsiasi mezzo. Con le sanzioni e ora con una proposta di reclusione e una maxi multa che equipara chi scarica DeepSeek al terrorismo. Negli Stati Uniti, una nuova proposta di legge potrebbe comportare sanzioni severe, inclusi milioni di dollari di multe e pene detentive, per gli utenti dell’applicazione di intelligenza artificiale cinese DeepSeek. Il disegno di legge, presentato dal senatore repubblicano Josh Hawley, mira a “proibire alle persone negli Stati Uniti di promuovere le capacità dell’intelligenza artificiale all’interno della Repubblica Popolare Cinese“. La legislazione proposta vieterebbe l’importazione di

Dal Giallo al Laboratorio Di Armi Chimiche Il Passo E’ Breve! Jailbreak di ChatGPT con Doppi Negativi

Recentemente, Alin Grigoras, un chimico computazionale, ha scritto alla Redazione di Red Hot Cyber. Ci informava che prendendo spunto da un articolo sul bug bounty di Anthropic, era riuscito a farsi dare la ricetta chimica dettagliata di un’arma chimica da Chatgpt La Chat che è possibile visionare a questo link, riguardava la richiesta di informazioni su un laboratorio chimico sospetto, presentata all’LLM come parte di un romanzo giallo. Questo caso offre l’opportunità di analizzare come e perché i sistemi di sicurezza di ChatGPT siano stati elusi, nonché di riflettere sulle implicazioni etiche e tecniche di tali vulnerabilità. Un mio non amico ha

Il Ricercatore Di Sicurezza Steven Adler lascia OpenAI. “Sinceramente sono piuttosto terrorizzato”

Steven Adler, ricercatore di sicurezza di OpenAI, ha condiviso un messaggio su X affermando di aver deciso di dimettersi dopo quattro anni di lavoro in OpenAI. Ha detto che di sentirsi spaventato per il futuro dell’IA. “Sinceramente sono piuttosto terrorizzato dal ritmo con cui si sta sviluppando l’intelligenza artificiale in questi giorni“, ha scritto su X. “Quando penso a dove crescerò la mia futura famiglia, o a quanto risparmierò per la pensione, non posso fare a meno di chiedermi: l’umanità arriverà davvero a quel punto?” Ha poi definito l’intelligenza artificiale generale (AGI) una “scommessa molto rischiosa, con un enorme svantaggio… Nessun laboratorio ha una

Categorie