Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Cerca
970x120
320×100

Tag: modelli linguistici

ArXiv blocca gli articoli generati con l’Intelligenza Artificiale

arXiv, uno dei più importanti repository di preprint scientifici, a seguito delle crescenti preoccupazioni della comunità scientifica riguardo all’uso incontrollato di modelli di intelligenza artificiale generativa ha rilevato dei fatti inquietanti. La piattaforma, gestita dalla Cornell University e ampiamente utilizzata da scienziati in tutto il mondo, ha smesso di accettare due tipologie specifiche di pubblicazioni informatiche: articoli di revisione e articoli programmatici. La ragione di ciò è il forte aumento del numero di articoli generati automaticamente utilizzando modelli linguistici che non apportano alcun reale contributo scientifico. Per decenni, arXiv ha svolto il ruolo di piattaforma per la pubblicazione di articoli scientifici prima

Attento a ciò che dici all’AI! Potrebbero essere dati riservati

Nell’epoca in cui ogni domanda trova risposta con un semplice tap, noi utenti abbiamo forse preso un po’ troppo la mano con i nuovi assistenti basati sull’intelligenza artificiale. In fondo, cambia poco quale scegliamo: i modelli linguistici più diffusi appartengono tutti a grandi società private. Nulla di nuovo, dirà qualcuno; anche la maggior parte dei servizi digitali che utilizziamo ogni giorno lo sono. La differenza, però, è che qui non stiamo interagendo con un motore di ricerca o un social network, ma con un sistema che simula una conversazione umana. Ed è proprio questa naturalezza a spingerci, spesso senza rendercene conto, a

LatentBreak: un nuovo metodo di attacco per i modelli linguistici

Un gruppo di scienziati ha sviluppato un nuovo modo per attaccare modelli linguistici di grandi dimensioni: un metodo chiamato LatentBreak. A differenza delle tecniche precedenti, non utilizza suggerimenti complessi o caratteri insoliti facilmente rilevabili dai sistemi di difesa. LatentBreak modifica invece la query a livello delle rappresentazioni nascoste del modello, scegliendo formulazioni che sembrano innocue ma che in realtà innescano una risposta proibita. In precedenza, metodi come GCG, GBDA, SAA e AutoDAN tentavano di ingannare l’intelligenza artificiale con suffissi strani o confusi che distorcevano il suggerimento originale. Tali attacchi aumentano la cosiddetta perplessità, una misura di quanto “naturale” appaia il testo al

L’allineamento dell’intelligenza artificiale: Dove un’AI impara cosa è giusto o sbagliato?

L’altro giorno su LinkedIn mi sono ritrovato a discutere con una persona che si interessava seriamente al tema dell’intelligenza artificiale applicata al diritto. Non era una di quelle conversazioni da bar con buzzword e panico da Skynet: era un confronto vero, con dubbi legittimi.E in effetti, in Italia, tra titoli sensazionalisti e articoli scritti da chi confonde ChatGPT con HAL 9000, non c’è da stupirsi se regna la confusione. Il punto che aveva colpito il mio interlocutore era quello dell’allineamento. “Ma dove impara, un’AI, cosa è giusto e cosa è sbagliato?” Domanda semplice, ma che apre una voragine. Perché sì, l’AI sembra

ONU: un lavoratore su quattro è minacciato dalle AI. Ma anche i loro comunicati sono scritti dagli LLM

Le Nazioni Unite si affidano sempre più all’intelligenza artificiale nella produzione di testi ufficiali. Secondo un recente studio, il 13% dei comunicati stampa delle Nazioni Unite mostra già segni di generazione automatica. Un’analisi delle pubblicazioni aziendali e governative ha rivelato un quadro ancora più ampio: circa il 17% di tali materiali, dagli annunci di lavoro alle dichiarazioni ufficiali, avrebbe potuto essere redatto con l’ausilio di modelli linguistici. Ma sappiamo che l’intelligenza artificiale è utilizzata attivamente anche dai cittadini comuni. Secondo gli autori, circa il 18% dei reclami presentati al Consumer Financial Protection Bureau degli Stati Uniti tra il 2022 e il 2024

Verso L’Uroboro! Il CEO di OpenAI avverte: i social sono pieni di contenuti dei bot AI

Ci stiamo avviando a passi da gigante vero l’uroboro, ovvero il serpente che mangia la sua stessa coda. Ne avevamo parlato qualche settimana fa che il traffico umano su internet è in calo vertiginoso rispetto a quello dei bot che ad oggi supera il 50% del traffico totale. Sam Altman, CEO di OpenAI e azionista di Reddit, ha confessato che i feed di “AI Twitter” e “AI Reddit” gli appaiono sempre più innaturali, al punto da diventare per lui un vero campanello d’allarme. Il segnale è arrivato dal subreddit r/Claudecode, dove negli ultimi giorni molti utenti hanno dichiarato di essere passati a

L’AI ha bisogno dello Strizzacervelli! Può essere ingannata come gli esseri umani

L’imprenditore Dan Shapiro si è imbattuto in un problema inaspettato: un popolare chatbot basato sull’intelligenza artificiale si è rifiutato di decifrare documenti aziendali, citando la violazione del copyright. Ma invece di arrendersi, Shapiro ha deciso di provare un vecchio trucco psicologico. Ricordava il libro di Robert Cialdini, “Influence: The Psychology of Persuasion”, che descrive tecniche di manipolazione efficaci sia per i venditori che per i clienti: simpatia, autorevolezza, scarsità, reciprocità, riprova sociale, coinvolgimento e unità. Dopo aver applicato queste strategie alla sua corrispondenza, Shapiro notò che il modello stava iniziando a cedere. Iniziò così uno studio scientifico che portò a una conclusione

L’AI A2 ha rilevato 102 bug 0day e creato exploit nelle app Android a 1,77 dollari

I sistemi di intelligenza artificiale sono stati criticati per aver creato report di vulnerabilità confusi e per aver inondato gli sviluppatori open source di reclami irrilevanti. Ma i ricercatori dell’Università di Nanchino e dell’Università di Sydney hanno un esempio del contrario: hanno presentato un agente chiamato A2, in grado di trovare e verificare le vulnerabilità nelle applicazioni Android, simulando il lavoro di un bug hunter. Il nuovo sviluppo è la continuazione del precedente progetto A1, che era in grado di sfruttare i bug negli smart contract. Gli autori affermano che A2 ha raggiunto una copertura del 78,3% sulla suite di test Ghera

Microsoft presenta POML per l’orchestrazione dei prompt LLM

Microsoft ha presentato POML (Prompt Orchestration Markup Language), un nuovo linguaggio di markup pensato per l’orchestrazione dei prompt e progettato specificamente per favorire la prototipazione rapida e strutturata di modelli linguistici di grandi dimensioni (LLM). L’obiettivo di POML è affrontare le limitazioni dello sviluppo tradizionale dei prompt – spesso caratterizzato da mancanza di struttura, integrazione complessa dei dati e sensibilità al formato – offrendo un approccio modulare, leggibile e manutenibile. Tuttavia, la sua introduzione ha suscitato un vivace dibattito: per alcuni è un passo avanti nell’ingegneria dei prompt, per altri non è che una “rivisitazione” di XML, con una complessità che potrebbe

La Democratizzazione della Criminalità informatica è arrivata! “Non so programmare, ma scrivo ransomware”

I criminali informatici stanno rapidamente padroneggiando l’intelligenza artificiale generativa, e non stiamo più parlando di lettere di riscatto “spaventose”, ma di sviluppo di malware a tutti gli effetti. Il team di ricerca di Anthropic ha riferito che gli aggressori si affidano sempre più a modelli linguistici di grandi dimensioni, fino all’intero ciclo di creazione e vendita di strumenti di crittografia dei dati. Parallelamente, ESET ha descritto un concetto di attacco in cui i modelli locali, dal lato dell’aggressore, assumono le fasi chiave dell’estorsione. La totalità delle osservazioni mostra come l‘intelligenza artificiale rimuova le barriere tecniche e acceleri l’evoluzione degli schemi ransomware. Secondo

Categorie