Redazione RHC : 28 Luglio 2023 07:59
I ricercatori della Stanford University e dell’Università della California, Berkeley, hanno pubblicato un documento di ricerca che pretende di mostrare i cambiamenti negli output di GPT-4 nel tempo.
Questo studio arriva sulla scia di persone che si lamentano spesso del fatto che GPT-4 è diminuito soggettivamente nelle prestazioni negli ultimi mesi. Le teorie includono modi su come OpenAI, per ridurre il loro sovraccarico computazionale, acceleri l’output per risparmiare risorse GPU.
Nel documento si riporta che la capacità di GPT-4 di identificare i numeri primi è precipitata drasticamente da una precisione del 97,6% a marzo a solo il 2,4% a giugno. Stranamente, GPT-3.5 ha mostrato prestazioni migliorate nello stesso periodo.
PARTE LA PROMO ESTATE -40%
RedHotCyber Academy lancia una promozione esclusiva e a tempo limitato per chi vuole investire nella propria crescita professionale nel mondo della tecnologia e della cybersecurity!
Approfitta del 40% di sconto sull’acquisto congiunto di 3 corsi da te scelti dalla nostra Academy. Ad esempio potresti fare un percorso formativo includendo Cyber Threat intelligence + NIS2 + Criptovalute con lo sconto del 40%. Tutto questo lo potrai fruire, dove e quando vuoi e con la massima flessibilità, grazie a lezioni di massimo 30 minuti ciascuna.
Contattaci tramite WhatsApp al 375 593 1011 per richiedere ulteriori informazioni oppure scriviti alla casella di posta [email protected]
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
Pertanto nello studio “Come cambia il comportamento di ChatGPT nel tempo?” su arXiv, Lingjiao Chen, Matei Zaharia e James Zou hanno messo in dubbio le prestazioni costanti dei modelli di linguaggio di grandi dimensioni (LLM) di OpenAI, in particolare GPT-3.5 e GPT-4.
Il documento alimenta una convinzione comune ma non dimostrata che il modello del linguaggio AI sia peggiorato nelle attività di codifica e composizione negli ultimi mesi. Alcuni esperti non sono convinti dai risultati, ma affermano che la mancanza di certezza indica un problema più ampio con il modo in cui OpenAI gestisce i suoi rilasci di modelli.
Utilizzando l’accesso API, hanno testato le versioni di marzo e giugno 2023 di questi modelli su attività come la risoluzione di problemi matematici, la risposta a domande sensibili, la generazione di codice e il ragionamento visivo.
OpenAI è a conoscenza della nuova ricerca e afferma che sta monitorando i rapporti sul declino delle capacità GPT-4. “Il team è a conoscenza delle regressioni segnalate e le sta esaminando“, ha twittato Logan Kilpatrick, responsabile delle relazioni con gli sviluppatori di OpenAI, mercoledì.
Sono state identificate diverse vulnerabilità nei prodotti Cisco Identity Services Engine (ISE) e Cisco ISE Passive Identity Connector (ISE-PIC) che potrebbero consentire a un utente malintenzion...
HackerHood, il team di hacker etici di Red Hot Cyber, ha realizzato qualcosa che raramente si vede fuori dalle conferenze più esclusive: un workshop live in cui viene mostrato, passo dopo passo, ...
Google ha rilasciato un aggiornamento di emergenza per il browser Chrome, eliminando sei vulnerabilità contemporaneamente, una delle quali è già attivamente sfruttata in attacchi reali....
L’operazione internazionale “Eastwood” rappresenta uno spartiacque nella lotta contro il cyberterrorismo. Per la prima volta, un’azione coordinata su scala mondiale ha infe...
Nell’ambito delle indagini condotte dalla Procura della Repubblica di Roma e con il coordinamento della Direzione Nazionale Antimafia e Antiterrorismo, la Polizia Postale ha portato a termine i...
Iscriviti alla newsletter settimanale di Red Hot Cyber per restare sempre aggiornato sulle ultime novità in cybersecurity e tecnologia digitale.
Copyright @ REDHOTCYBER Srl
PIVA 17898011006