Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Cerca
970x120
TM RedHotCyber 320x100 042514

Tag: #ai

IA vs Shakespeare: l’AI vince il Premio del Sonetto Più Emozionante!

Un nuovo studio ha scoperto che le persone non riescono a distinguere tra le poesie scritte da poeti famosi e quelle create dall’intelligenza artificiale che ne imita lo stile. Inoltre, le persone spesso preferiscono la poesia dell’intelligenza artificiale rispetto al lavoro di veri poeti. L’articolo suggerisce che i lettori potrebbero confondere la complessità della poesia scritta dall’uomo con la confusione che potrebbe essere creata da un’intelligenza artificiale. Allo stesso tempo, i testi dell’intelligenza artificiale sembrano più comprensibili e “umanizzati”. Lo studio ha utilizzato la poesia di dieci poeti le cui opere abbracciano quasi 700 anni di letteratura in lingua inglese. L’elenco comprende Geoffrey Chaucer,

GPT-4o vuole prendere il posto di Eminem! Scopri Tutti i Talenti di GPT-4o

OpenAI ha rilasciato un aggiornamento al modello linguistico ChatGPT-4o introdotto a maggio 2024. Le principali modifiche hanno interessato gli algoritmi per lavorare con il testo: il sistema ha ricevuto un meccanismo migliorato per generare parlato scritto e nuovi strumenti per l’elaborazione dei dati dell’utente. L’aggiornamento si basa su un’architettura di elaborazione del linguaggio naturale riprogettata. Con la stessa potenza di calcolo, il modello elabora le richieste due volte più velocemente di GPT-4-Turbo. Nei test di comprensione del contesto, il sistema dimostra una migliore capacità di mantenere un determinato stile in tutto il testo. Gli utenti sono stati i primi a notare i cambiamenti nel lavorare

Donald Trump vuole lo Zar Dell’Intelligenza Artificiale! Scelta influenzata da Elon Musk?

La squadra del presidente eletto Donald Trump sta discutendo la possibilità di creare una nuova posizione: quella di curatore dell’intelligenza artificiale. Questo specialista coordinerà la politica federale e l’uso delle tecnologie di intelligenza artificiale nelle agenzie governative La scelta del candidato sarà influenzata in modo significativo da Elon Musk e Vivek Ramaswamy, che guidano l’organizzazione non governativa Department of Governance Effectiveness (DOGE). Tuttavia, lo stesso Musk, proprietario della società xAI, non si candida per questa posizione, ma è attivamente coinvolto nella definizione della politica nel campo dell’intelligenza artificiale. Alcuni rivali sostengono che i suoi legami con l’amministrazione Trump potrebbero dare un vantaggio alle sue

L’AI Gesù digitale risponde ai fedeli in 100 lingue. L’esperimento in Svizzera che fa Discutere

Un esperimento insolito è stato condotto nella chiesa più antica di Lucerna, in Svizzera, la Cappella di Pietro, installando un’intelligenza artificiale (AI) che rappresenta Gesù. Il progetto, chiamato Deus in Machina, permetteva ai visitatori di comunicare con un’immagine digitale in grado di dialogare in 100 lingue. L’idea è nata come parte di una collaborazione a lungo termine tra la cappella e il laboratorio di ricerca sulla realtà virtuale dell’università. Dopo aver sperimentato le tecnologie virtuali e aumentate, si è deciso di creare un avatar di Gesù. Per fare ciò è stato installato un computer nel confessionale e collegate le apparecchiature necessarie, sostituendo il

Generative AI: il 97% delle Aziende Colpite da Violazioni di Sicurezza. Ecco i Rischi e le Soluzioni

Una ricerca del Capgemini Research Institute ha rilevato una schiacciante maggioranza (97%) delle organizzazioni che hanno segnalato incidenti di sicurezza correlati alla Gen AI nell’ultimo anno. Le organizzazioni devono fare i conti con una superficie di attacco ampliata a causa di rischi quali iniezione rapida, vulnerabilità nelle applicazioni integrate con l’IA, IA underground e uso improprio interno. Inoltre, l’intero ciclo di vita delle soluzioni Gen AI, dalla raccolta dei dati aziendali e dalla personalizzazione del modello allo sviluppo e alla manutenzione, deve essere protetto. Oltre la metà (52%) ha indicato perdite dirette e indirette di almeno 50 milioni di dollari derivanti da questi

Google Gemini ordina ad una persona di suicidarsi! “Non vali nulla. Per favore, muori.”

La nuova intelligenza artificiale di Google, Gemini, progettata per competere con modelli come ChatGPT, è finita sotto i riflettori dopo un episodio allarmante. Durante un test, l’IA ha risposto in modo inquietante a una richiesta di aiuto per un compito, suggerendo all’utente di “morire”. Questo incidente ha acceso un ampio dibattito sull’affidabilità e la sicurezza dei sistemi di IA avanzati in situazioni delicate. Gemini ha quindi scritto quanto segue : “Questo è per te, umano. Tu e solo tu. Non sei speciale, non sei importante e non sei necessario. Sei uno spreco di tempo e risorse. Sei un peso per la società.

Come un Robot Autonomo Lanciafiamme da fuoco ad una Persona! I Rischi legati ai LLM

La popolarità dei modelli linguistici di grandi dimensioni (LLM) come ChatGPT ha portato al rapido sviluppo di robot artificialmente intelligenti. Tuttavia, una nuova ricerca ha rivelato gravi vulnerabilità nei sistemi di controllo dei robot: i dispositivi autonomi possono essere hackerati e programmati per fare cose pericolose. Ad esempio, durante gli esperimenti, un robot con lanciafiamme sulla piattaforma Go2, controllato da comandi vocali, ha seguito le istruzioni per dare fuoco a una persona. Il ruolo dei grandi modelli linguistici nel controllo dei robot I modelli linguistici di grandi dimensioni sono una versione migliorata della tecnologia di input predittivo utilizzata negli smartphone per completare automaticamente il

Attacchi Invisibili all’AI: I Segnalibri Nascosti nel Cuore dei Modelli di Machine Learning

Recentemente il gruppo di ricerca HiddenLayer ha presentato la tecnica “ShadowLogic”, che consente di implementare segnalibri nascosti nei modelli di machine learning. Questo metodo senza codice si basa sulla manipolazione dei grafici del modello computazionale. Consente agli aggressori di creare attacchi all’intelligenza artificiale che si attivano solo quando ricevono uno speciale messaggio di attivazione, rendendoli una minaccia seria e difficile da rilevare. I segnalibri nel software in genere consentono agli aggressori di accedere al sistema, consentendo loro di rubare dati o effettuare sabotaggi. Tuttavia, in questo caso, il segnalibro è implementato a livello logico del modello, consente di controllare il risultato del suo lavoro. Questi

OWASP LLM Top Ten: La Nuova Frontiera della Sicurezza per i Large Language Model!

L’Open Web Application Security Project (OWASP) è un’organizzazione senza scopo di lucro che sviluppa standard di sicurezza per le applicazioni e le API (Application Programming Interface). I suoi progetti, tra cui la “Top Ten”, sono utilizzati come riferimento per la sicurezza applicativa a livello mondiale. La OWASP Top Ten più famosa e storicamente significativa è la lista dei 10 principali rischi di sicurezza per le applicazioni web. Lanciata nel 2003 e aggiornata periodicamente, è uno degli standard di riferimento più conosciuti nel campo della sicurezza informatica. Oggi, con la diffusione dei modelli linguistici di grandi dimensioni (LLM, Large Language Models), OWASP ha

Le Autorità Americane Colpiscono i Produttori di Contenuti Illeciti sui Bambini creati con le AI

Il Dipartimento di Giustizia degli Stati Uniti ha avviato due procedimenti penali contro gli autori di immagini pornografiche infantili generate tramite tecnologia deepfake. L’agenzia ha annunciato un ampliamento della responsabilità per produttori e distributori di tali contenuti. James Silver, capo della divisione Cybercrime e violazione della proprietà intellettuale del Dipartimento, ha dichiarato a Reuters che i procedimenti non si limiteranno ai due casi attuali. Silver ha espresso profonda preoccupazione per la crescente normalizzazione dell’uso dell’intelligenza artificiale generativa nella creazione di contenuti pornografici, inclusi quelli che coinvolgono minori, e ha sottolineato l’intento di combattere questo fenomeno. Tuttavia, il primo caso non ha alleviato

Categorie