Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Condividi la tua difesa. Incoraggia l'eccellenza.
La vera forza della cybersecurity risiede
nell'effetto moltiplicatore della conoscenza.
ONU: un lavoratore su quattro è minacciato dalle AI. Ma anche i loro comunicati sono scritti dagli LLM

ONU: un lavoratore su quattro è minacciato dalle AI. Ma anche i loro comunicati sono scritti dagli LLM

3 Ottobre 2025 20:52


Le Nazioni Unite si affidano sempre più all’intelligenza artificiale nella produzione di testi ufficiali. Secondo un recente studio, il 13% dei comunicati stampa delle Nazioni Unite mostra già segni di generazione automatica.

Un’analisi delle pubblicazioni aziendali e governative ha rivelato un quadro ancora più ampio: circa il 17% di tali materiali, dagli annunci di lavoro alle dichiarazioni ufficiali, avrebbe potuto essere redatto con l’ausilio di modelli linguistici.

Ma sappiamo che l’intelligenza artificiale è utilizzata attivamente anche dai cittadini comuni.

Secondo gli autori, circa il 18% dei reclami presentati al Consumer Financial Protection Bureau degli Stati Uniti tra il 2022 e il 2024 è stato generato utilizzando reti neurali. Questo risultato sembra prevedibile: più della metà degli adulti americani (52%), che ha già ammesso di utilizzare modelli linguistici.

Vengono utilizzati più spesso per l’auto apprendimento o per le attività quotidiane, ma il loro utilizzo anche in ambito aziendale sta diventando sempre più evidente.

La percentuale di testo generato automaticamente è particolarmente elevata nei comunicati stampa aziendali. I ricercatori hanno scoperto che quasi un quarto delle pubblicazioni pubblicate sulle tre principali piattaforme di comunicati stampa è stato creato con l’ausilio dell’intelligenza artificiale. La più alta concentrazione di tali materiali è stata riscontrata nel settore scientifico e tecnologico.

Gli autori hanno studiato separatamente gli annunci di lavoro su LinkedIn. È emerso che le grandi aziende sono meno propense ad affidarsi a strumenti generativi nella scrittura degli annunci di lavoro, mentre circa il 10% degli annunci di lavoro delle piccole imprese, al contrario, mostra segni di apprendimento automatico.

Nel frattempo, gli stessi candidati esprimono sempre più insoddisfazione: il reclutamento automatizzato è percepito come una semplificazione ingiusta e i candidati vogliono che le aziende dichiarino apertamente il loro utilizzo dell’intelligenza artificiale.

È evidente anche il crescente utilizzo di algoritmi nel lavoro delle Nazioni Unite: mentre all’inizio del 2023, i segnali di generazione automatica erano registrati solo nel 3% dei comunicati stampa in lingua inglese dell’organizzazione, alla fine del 2024 questa cifra ha superato il 13%. Ciò è particolarmente significativo se si considera che le Nazioni Unite stesse hanno ripetutamente avvertito che l’automazione basata sulle reti neurali minaccia una professione su quattro, con le donne nei paesi sviluppati, dove molte mansioni lavorative possono essere esternalizzate agli algoritmi, che sono le più a rischio.

Negli Stati Uniti, la comunicazione e le pubbliche relazioni sono tra le professioni con una predominanza femminile. Secondo i dati del 2024, le donne rappresentano il 67,8% dei professionisti delle relazioni pubbliche e il 70,1% dei responsabili delle pubbliche relazioni e della raccolta fondi. Questi settori sono già attivamente saturi di testi basati sull’intelligenza artificiale.

Nel complesso, i ricercatori hanno registrato un rapido aumento. Prima del rilascio di ChatGPT nel novembre 2022, solo l’1,5% dei materiali analizzati poteva essere classificato come scritto automaticamente, ma ad agosto 2023 questa quota superava il 15%. La crescita successiva ha rallentato e ad agosto 2024 la cifra si è stabilizzata al 17%.

Gli autori hanno utilizzato il loro rilevatore di testo automatico per il loro lavoro. Tuttavia, riconoscono che il programma non è in grado di distinguere accuratamente i materiali che sono stati pesantemente modificati dagli esseri umani dopo la generazione. Questa lacuna è in linea con i risultati precedenti riguardanti i punti deboli di strumenti simili. Già nel 2023, uno studio separato ha dimostrato che nessuno dei sistemi disponibili ha dimostrato un’accuratezza superiore all’80% e, in alcuni casi, il testo generato è stato rilevato come testo umano. I risultati sono stati ancora peggiori con l’editing manuale, la parafrasi automatica o la traduzione.

Un altro studio ha rilevato un livello ancora più basso: l’accuratezza del riconoscimento in condizioni di sostituzione potrebbe scendere al 17,4%. L’autore principale dello studio attuale, il professore James Zou della Stanford University, spiega che tali strumenti funzionano in modo più efficace con articoli di grandi dimensioni, ma non sono in grado di determinare in modo affidabile se un particolare materiale sia stato scritto utilizzando l’intelligenza artificiale. Osserva che, come qualsiasi nuova tecnologia, i modelli generativi non possono essere ridotti a una valutazione netta, positiva o negativa. Commettono inevitabilmente errori e affidarsi esclusivamente a essi per la preparazione del testo senza verificare il risultato finale porterà inevitabilmente a inesattezze fattuali.

Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Cropped RHC 3d Transp2 1766828557 300x300
La Redazione di Red Hot Cyber fornisce aggiornamenti quotidiani su bug, data breach e minacce globali. Ogni contenuto è validato dalla nostra community di esperti come Pietro Melillo, Massimiliano Brolli, Sandro Sana, Olivia Terragni e Stefano Gazzella. Grazie alla sinergia con i nostri Partner leader nel settore (tra cui Accenture, CrowdStrike, Trend Micro e Fortinet), trasformiamo la complessità tecnica in consapevolezza collettiva, garantendo un'informazione accurata basata sull'analisi di fonti primarie e su una rigorosa peer-review tecnica.

Articoli in evidenza

Immagine del sitoInnovazione
Aperti i battenti del primo negozio di robot umanoidi al mondo in Cina. Saremo pronti?
Carolina Vivianti - 30/01/2026

Alle dieci del mattino, a Wuhan, due robot umanoidi alti 1,3 metri iniziano a muoversi con precisione. Girano, saltano, seguono il ritmo. È il segnale di apertura del primo negozio 7S di robot umanoidi del…

Immagine del sitoCyber Italia
Azienda automotive italiana nel mirino degli hacker: in vendita l’accesso per 5.000 dollari
Luca Stivali - 30/01/2026

Il 29 gennaio 2026, sul forum BreachForums, l’utente p0ppin ha pubblicato un annuncio di vendita relativo a un presunto accesso amministrativo non autorizzato ai sistemi interni di una “Italian Car Company”. Come spesso accade in questo tipo di annunci, nessun riferimento…

Immagine del sitoCyber News
Ivanti corre ai ripari: falle zero-day colpiscono l’Endpoint Manager Mobile
Redazione RHC - 30/01/2026

Ivanti ha rilasciato una serie di aggiornamenti critici per arginare due vulnerabilità di sicurezza che hanno colpito Ivanti Endpoint Manager Mobile (EPMM). Si tratta di falle sfruttate attivamente in attacchi zero-day, una criticità tale da…

Immagine del sitoCultura
Elk Cloner: Il primo virus informatico della storia nacque come uno scherzo
Silvia Felici - 30/01/2026

Alla fine degli anni 90, Internet era ancora piccolo, lento e per pochi. In quel periodo, essere “smanettoni” significava avere una conoscenza tecnica che sembrava quasi magia agli occhi degli altri. Non era raro che…

Immagine del sitoCultura
Oggi nasceva Douglas Engelbart: l’uomo che ha visto e inventato il futuro digitale
Massimiliano Brolli - 30/01/2026

Certe volte, pensandoci bene, uno si chiede come facciamo a dare per scontato il mondo che ci circonda. Tipo, clicchiamo, scorriamo, digitiamo, e tutto sembra così naturale, quasi fosse sempre stato qui. E invece no,…