Redazione RHC : 6 Dicembre 2023 07:45
Alcuni ricercatori italiani hanno recentemente scoperto che i dati generati dall’intelligenza artificiale possono essere fuorvianti. Il risultato principale dello studio, condotto da Giuseppe Giannaccare, chirurgo oftalmico dell’Università di Cagliari, è che ChatGPT può generare dati convincenti ma falsi.
Giannaccare osserva che ChatGPT ha creato un set di dati falso di centinaia di pazienti in pochi minuti. Questa scoperta è preoccupante, soprattutto alla luce della crescente minaccia di dati falsificati nella ricerca medica.
Il Dizionario dell’Università di Cambridge ha addirittura inserito il termine “allucinazione” (la produzione di false informazioni da parte di ampi modelli linguistici) come parola dell’anno. Esempi di uso improprio di ChatGPT hanno già portato a sanzioni: due avvocati che lo hanno utilizzato per preparare la documentazione del caso sono stati multati di 5.000 dollari per aver utilizzato informazioni fittizie.
Scarica Gratuitamente Byte The Silence, il fumetto sul Cyberbullismo di Red Hot Cyber
«Il cyberbullismo è una delle minacce più insidiose e silenziose che colpiscono i nostri ragazzi. Non si tratta di semplici "bravate online", ma di veri e propri atti di violenza digitale, capaci di lasciare ferite profonde e spesso irreversibili nell’animo delle vittime. Non possiamo più permetterci di chiudere gli occhi».
Così si apre la prefazione del fumetto di Massimiliano Brolli, fondatore di Red Hot Cyber, un’opera che affronta con sensibilità e realismo uno dei temi più urgenti della nostra epoca.
Distribuito gratuitamente, questo fumetto nasce con l'obiettivo di sensibilizzare e informare. È uno strumento pensato per scuole, insegnanti, genitori e vittime, ma anche per chi, per qualsiasi ragione, si è ritrovato nel ruolo del bullo, affinché possa comprendere, riflettere e cambiare.
Con la speranza che venga letto, condiviso e discusso, Red Hot Cyber è orgogliosa di offrire un contributo concreto per costruire una cultura digitale più consapevole, empatica e sicura.
Contattaci tramite WhatsApp al numero 375 593 1011 per richiedere ulteriori informazioni oppure alla casella di posta [email protected]
I ricercatori hanno utilizzato ChatGPT connesso a un modello avanzato di analisi dei dati Python per generare dati di studi clinici per il trattamento del cheratocono. Tuttavia, i dati generati erano del tutto fittizi, nonostante fossero convincenti.
Giannaccare sottolinea l’importanza di riconoscere il “lato oscuro dell’intelligenza artificiale” e la necessità di sviluppare metodi migliori per individuare le frodi. Osserva inoltre che un uso adeguato dell’intelligenza artificiale può contribuire in modo significativo alla ricerca scientifica.
L’articolo, pubblicato su JAMA Ophthalmology, indica che un’analisi più approfondita dei dati potrebbe rivelare segni di falsificazione, come un numero innaturale di età dei soggetti che termina con 7 o 8.
“Il sistema di difesa militare Skynet entrerà in funzione il 4 agosto 1997. Comincerà ad autoistruirsi imparando a ritmo esponenziale e diverrà autocosciente alle 2:14 del giorno...
Un nuovo strumento per disabilitare i sistemi EDR è apparso nell’ambiente dei criminali informatici , che gli esperti di Sophos ritengono essere un’estensione dell’utility ED...
Una vulnerabilità di WinRAR recentemente chiusa monitorata con il codice CVE-2025-8088 è stata sfruttata in attacchi di phishing mirati prima del rilascio della patch. Il problema era un Dir...
Alla conferenza Black Hat di Las Vegas, VisionSpace Technologies ha dimostrato che è molto più facile ed economico disattivare un satellite o modificarne la traiettoria rispetto all’u...
Una falla di sicurezza cruciale nell’HTTP/1.1 è stata resa pubblica dagli esperti di sicurezza, mettendo in luce una minaccia che continua ad impattare sull’infrastruttura web da pi...