Redazione RHC : 12 Gennaio 2024 07:31
I modelli linguistici di grandi dimensioni (LLM) sono algoritmi avanzati di deep learning in grado di analizzare indizi in diverse lingue, generando successivamente risposte realistiche.
Non devi cercare lontano per trovare degli esempi. ChatGPT può rispondere rapidamente a un’ampia gamma di domande degli utenti e generare contenuti scritti accattivanti. Questo per molti scopi.
Gli scienziati della New York University hanno condotto uno studio per valutare l’efficacia di due modelli linguistici addestrati a riconoscere il sarcasmo nelle persone.
CORSO NIS2 : Network and Information system 2
La direttiva NIS2 rappresenta una delle novità più importanti per la sicurezza informatica in Europa, imponendo nuovi obblighi alle aziende e alle infrastrutture critiche per migliorare la resilienza contro le cyber minacce.
Con scadenze stringenti e penalità elevate per chi non si adegua, comprendere i requisiti della NIS2 è essenziale per garantire la compliance e proteggere la tua organizzazione.
Accedi All'Anteprima del Corso condotto dall'Avv. Andrea Capelli sulla nostra Academy e segui l'anteprima gratuita.
Per ulteriori informazioni, scrivici ad [email protected] oppure scrivici su Whatsapp al 379 163 8765
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
L’analisi del sentiment è un campo di studio che prevede l’analisi di testi tipicamente pubblicati sui social media o altri siti web. Ciò ti consente di avere un’idea di come si sentono le persone riguardo a un determinato argomento. Oggi molte aziende stanno investendo in quest’area perché può aiutarle a capire come migliorare i propri servizi e soddisfare le esigenze dei clienti.
Esistono diversi modelli in grado di elaborare i testi e prevederne il tono emotivo sottostante. Tuttavia, molte recensioni e commenti pubblicati online contengono ironia e sarcasmo, il che può indurre le modelle a classificarli come “positivi” quando in realtà esprimono emozioni negative, o viceversa.
Pertanto, gli scienziati stanno cercando di sviluppare modelli in grado di rilevare il sarcasmo nei testi scritti. Due dei modelli più promettenti, chiamati CASCADE e RCNN-RoBERTa, sono stati presentati nel 2018 da gruppi di ricerca separati.
I ricercatori hanno condotto una serie di test volti a valutare la capacità del modello CASCADE e di RCNN-RoBERTa di rilevare il sarcasmo nei commenti pubblicati su Reddit. Una nota piattaforma online comunemente utilizzata per valutare contenuti e discutere vari argomenti.
La capacità di questi due modelli di rilevare il sarcasmo nei testi campione è stata anche confrontata con la prestazione umana media nello stesso compito e con la prestazione di diversi modelli di text mining di base.
Sullo sfondo della diffusa popolarità degli assistenti AI generativi che promettono di creare codice funzionante per tutti basato su una semplice descrizione in linguaggio naturale, il team ...
Da tempo circolano modelli di intelligenza artificiale pensati per accelerare le attività di hacking, sia nel mondo underground che in contesti più legittimi e visibili. Kali GPT, un modello...
GhostSec, noto collettivo di hacktivisti, ha recentemente rivelato dettagli su un’operazione controversa che coinvolge un’azienda italiana e obiettivi governativi macedoni. In un’...
Negli ultimi giorni, su due noti forum underground specializzati nella compravendita di dati trafugati e metodi fraudolenti, sono comparsi dei post separati (ma identici nel contenuto), riguardanti un...
E se le intelligenze artificiali producessero del codice vulnerabile oppure utilizzassero librerie e costrutti contenenti bug vecchi mai sanati? Si tratta di allucinazione o apprendimento errato? Una ...
Copyright @ REDHOTCYBER Srl
PIVA 17898011006