Alcuni ricercatori italiani hanno recentemente scoperto che i dati generati dall’intelligenza artificiale possono essere fuorvianti. Il risultato principale dello studio, condotto da Giuseppe Giannaccare, chirurgo oftalmico dell’Università di Cagliari, è che ChatGPT può generare dati convincenti ma falsi.
Giannaccare osserva che ChatGPT ha creato un set di dati falso di centinaia di pazienti in pochi minuti. Questa scoperta è preoccupante, soprattutto alla luce della crescente minaccia di dati falsificati nella ricerca medica.
Il Dizionario dell’Università di Cambridge ha addirittura inserito il termine “allucinazione” (la produzione di false informazioni da parte di ampi modelli linguistici) come parola dell’anno. Esempi di uso improprio di ChatGPT hanno già portato a sanzioni: due avvocati che lo hanno utilizzato per preparare la documentazione del caso sono stati multati di 5.000 dollari per aver utilizzato informazioni fittizie.
I ricercatori hanno utilizzato ChatGPT connesso a un modello avanzato di analisi dei dati Python per generare dati di studi clinici per il trattamento del cheratocono. Tuttavia, i dati generati erano del tutto fittizi, nonostante fossero convincenti.
Giannaccare sottolinea l’importanza di riconoscere il “lato oscuro dell’intelligenza artificiale” e la necessità di sviluppare metodi migliori per individuare le frodi. Osserva inoltre che un uso adeguato dell’intelligenza artificiale può contribuire in modo significativo alla ricerca scientifica.
L’articolo, pubblicato su JAMA Ophthalmology, indica che un’analisi più approfondita dei dati potrebbe rivelare segni di falsificazione, come un numero innaturale di età dei soggetti che termina con 7 o 8.
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

InnovazioneL’evoluzione dell’Intelligenza Artificiale ha superato una nuova, inquietante frontiera. Se fino a ieri parlavamo di algoritmi confinati dietro uno schermo, oggi ci troviamo di fronte al concetto di “Meatspace Layer”: un’infrastruttura dove le macchine non…
CybercrimeNegli ultimi anni, la sicurezza delle reti ha affrontato minacce sempre più sofisticate, capaci di aggirare le difese tradizionali e di penetrare negli strati più profondi delle infrastrutture. Un’analisi recente ha portato alla luce uno…
VulnerabilitàNegli ultimi tempi, la piattaforma di automazione n8n sta affrontando una serie crescente di bug di sicurezza. n8n è una piattaforma di automazione che trasforma task complessi in operazioni semplici e veloci. Con pochi click…
InnovazioneArticolo scritto con la collaborazione di Giovanni Pollola. Per anni, “IA a bordo dei satelliti” serviva soprattutto a “ripulire” i dati: meno rumore nelle immagini e nei dati acquisiti attraverso i vari payload multisensoriali, meno…
Cyber ItaliaNegli ultimi giorni è stato segnalato un preoccupante aumento di truffe diffuse tramite WhatsApp dal CERT-AGID. I messaggi arrivano apparentemente da contatti conosciuti e richiedono urgentemente denaro, spesso per emergenze come spese mediche improvvise. La…