Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Cerca
LECS 970x120 1
320x100 Itcentric

Tag: futuro dell’IA

GPT-5 è quì! l’IA da miliardi di dollari che divora GPU e fa sembrare GPT-4 un giocattolo

OpenAI ha lanciato il suo nuovo modello di punta e il messaggio è chiaro: affidabilità, potenza e un cambio radicale nel modo in cui interagiamo con l’intelligenza artificiale. Dopo anni in cui i modelli linguistici erano visti come strumenti sperimentali, GPT-5 segna il passaggio definitivo dal prototipo alla produzione. Uno dei punti di forza è il sistema unificato con “smart router”: non serve più scegliere manualmente quale modello usare. GPT-5 analizza la richiesta e decide autonomamente se fornire una risposta rapida o attivare una modalità di calcolo più complessa per problemi impegnativi. Un’unica interfaccia, potenza su richiesta. Meno Allucinazioni e più ragionamento

L’allarme degli esperti: la sicurezza risiederà nel controllo di come le AI prendono decisioni

L’intelligenza artificiale sta avanzando a un ritmo sorprendente, aprendo nuove opportunità ma ponendo anche gravi rischi. Riconoscendo la potenziale minaccia, importanti aziende tecnologiche tra cui Google DeepMind, OpenAI, Meta, Anthropic e diverse organizzazioni no-profit si sono unite per richiamare l’attenzione sulla necessità di monitorare il modo in cui l’intelligenza artificiale prende decisioni. Un nuovo documento, sostenuto da personalità del settore, lancia un segnale d’allarme: la possibilità di osservare il pensiero dell’intelligenza artificiale potrebbe scomparire nel prossimo futuro. L’articolo si concentra sulla tecnologia Chain-of-Thought (CoT), un metodo in cui l’intelligenza artificiale scompone un compito complesso in azioni graduali, in modo simile a come

Mi Ami, Non mi Ami? A scusa, sei un Chatbot!

Le persone tendono a essere più comprensive nei confronti dei chatbot se li considerano interlocutori reali. Questa è la conclusione a cui sono giunti gli scienziati dell’Università Ebraica di Gerusalemme dopo una serie di studi su larga scala pubblicati sulla rivista Nature Human Behaviour. In nove esperimenti, i ricercatori hanno reclutato più di 6.200 partecipanti. Tutti hanno interagito con chatbot basati su modelli linguistici di grandi dimensioni (LLM), ma alcuni partecipanti credevano di parlare con un essere umano. Questo è stato un fattore chiave nel modo in cui percepivano il supporto e l’empatia del loro interlocutore. Come osservato nell’articolo, i modelli linguistici

Categorie