
Le Nazioni Unite si affidano sempre più all’intelligenza artificiale nella produzione di testi ufficiali. Secondo un recente studio, il 13% dei comunicati stampa delle Nazioni Unite mostra già segni di generazione automatica.
Un’analisi delle pubblicazioni aziendali e governative ha rivelato un quadro ancora più ampio: circa il 17% di tali materiali, dagli annunci di lavoro alle dichiarazioni ufficiali, avrebbe potuto essere redatto con l’ausilio di modelli linguistici.
Ma sappiamo che l’intelligenza artificiale è utilizzata attivamente anche dai cittadini comuni.
Secondo gli autori, circa il 18% dei reclami presentati al Consumer Financial Protection Bureau degli Stati Uniti tra il 2022 e il 2024 è stato generato utilizzando reti neurali. Questo risultato sembra prevedibile: più della metà degli adulti americani (52%), che ha già ammesso di utilizzare modelli linguistici.
Vengono utilizzati più spesso per l’auto apprendimento o per le attività quotidiane, ma il loro utilizzo anche in ambito aziendale sta diventando sempre più evidente.
La percentuale di testo generato automaticamente è particolarmente elevata nei comunicati stampa aziendali. I ricercatori hanno scoperto che quasi un quarto delle pubblicazioni pubblicate sulle tre principali piattaforme di comunicati stampa è stato creato con l’ausilio dell’intelligenza artificiale. La più alta concentrazione di tali materiali è stata riscontrata nel settore scientifico e tecnologico.
Gli autori hanno studiato separatamente gli annunci di lavoro su LinkedIn. È emerso che le grandi aziende sono meno propense ad affidarsi a strumenti generativi nella scrittura degli annunci di lavoro, mentre circa il 10% degli annunci di lavoro delle piccole imprese, al contrario, mostra segni di apprendimento automatico.
Nel frattempo, gli stessi candidati esprimono sempre più insoddisfazione: il reclutamento automatizzato è percepito come una semplificazione ingiusta e i candidati vogliono che le aziende dichiarino apertamente il loro utilizzo dell’intelligenza artificiale.
È evidente anche il crescente utilizzo di algoritmi nel lavoro delle Nazioni Unite: mentre all’inizio del 2023, i segnali di generazione automatica erano registrati solo nel 3% dei comunicati stampa in lingua inglese dell’organizzazione, alla fine del 2024 questa cifra ha superato il 13%. Ciò è particolarmente significativo se si considera che le Nazioni Unite stesse hanno ripetutamente avvertito che l’automazione basata sulle reti neurali minaccia una professione su quattro, con le donne nei paesi sviluppati, dove molte mansioni lavorative possono essere esternalizzate agli algoritmi, che sono le più a rischio.
Negli Stati Uniti, la comunicazione e le pubbliche relazioni sono tra le professioni con una predominanza femminile. Secondo i dati del 2024, le donne rappresentano il 67,8% dei professionisti delle relazioni pubbliche e il 70,1% dei responsabili delle pubbliche relazioni e della raccolta fondi. Questi settori sono già attivamente saturi di testi basati sull’intelligenza artificiale.
Nel complesso, i ricercatori hanno registrato un rapido aumento. Prima del rilascio di ChatGPT nel novembre 2022, solo l’1,5% dei materiali analizzati poteva essere classificato come scritto automaticamente, ma ad agosto 2023 questa quota superava il 15%. La crescita successiva ha rallentato e ad agosto 2024 la cifra si è stabilizzata al 17%.
Gli autori hanno utilizzato il loro rilevatore di testo automatico per il loro lavoro. Tuttavia, riconoscono che il programma non è in grado di distinguere accuratamente i materiali che sono stati pesantemente modificati dagli esseri umani dopo la generazione. Questa lacuna è in linea con i risultati precedenti riguardanti i punti deboli di strumenti simili. Già nel 2023, uno studio separato ha dimostrato che nessuno dei sistemi disponibili ha dimostrato un’accuratezza superiore all’80% e, in alcuni casi, il testo generato è stato rilevato come testo umano. I risultati sono stati ancora peggiori con l’editing manuale, la parafrasi automatica o la traduzione.
Un altro studio ha rilevato un livello ancora più basso: l’accuratezza del riconoscimento in condizioni di sostituzione potrebbe scendere al 17,4%. L’autore principale dello studio attuale, il professore James Zou della Stanford University, spiega che tali strumenti funzionano in modo più efficace con articoli di grandi dimensioni, ma non sono in grado di determinare in modo affidabile se un particolare materiale sia stato scritto utilizzando l’intelligenza artificiale. Osserva che, come qualsiasi nuova tecnologia, i modelli generativi non possono essere ridotti a una valutazione netta, positiva o negativa. Commettono inevitabilmente errori e affidarsi esclusivamente a essi per la preparazione del testo senza verificare il risultato finale porterà inevitabilmente a inesattezze fattuali.
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

InnovazioneL’evoluzione dell’Intelligenza Artificiale ha superato una nuova, inquietante frontiera. Se fino a ieri parlavamo di algoritmi confinati dietro uno schermo, oggi ci troviamo di fronte al concetto di “Meatspace Layer”: un’infrastruttura dove le macchine non…
CybercrimeNegli ultimi anni, la sicurezza delle reti ha affrontato minacce sempre più sofisticate, capaci di aggirare le difese tradizionali e di penetrare negli strati più profondi delle infrastrutture. Un’analisi recente ha portato alla luce uno…
VulnerabilitàNegli ultimi tempi, la piattaforma di automazione n8n sta affrontando una serie crescente di bug di sicurezza. n8n è una piattaforma di automazione che trasforma task complessi in operazioni semplici e veloci. Con pochi click…
InnovazioneArticolo scritto con la collaborazione di Giovanni Pollola. Per anni, “IA a bordo dei satelliti” serviva soprattutto a “ripulire” i dati: meno rumore nelle immagini e nei dati acquisiti attraverso i vari payload multisensoriali, meno…
Cyber ItaliaNegli ultimi giorni è stato segnalato un preoccupante aumento di truffe diffuse tramite WhatsApp dal CERT-AGID. I messaggi arrivano apparentemente da contatti conosciuti e richiedono urgentemente denaro, spesso per emergenze come spese mediche improvvise. La…