Red Hot Cyber
La cybersecurity è condivisione. Riconosci il rischio, combattilo, condividi le tue esperienze ed incentiva gli altri a fare meglio di te.
Cerca

Chat GPT

Chat GPT vietata nei documenti presentati alla Conferenza internazionale sull’apprendimento automatico (ICML)

Redazione RHC : 10 Gennaio 2023 07:14

La tecnologia che non si conosce mette paura e dopo l’isterismo iniziale sull’utilizzo di Chat GPT, molti iniziano a prendere le distanze.

Anche da chi si occupa proprio di AI.

I leader della Conferenza internazionale sull’apprendimento automatico (ICML) hanno vietato agli scienziati di presentare documenti creati con modelli di linguaggio di grandi dimensioni (LLM) come ChatGPT.


Sei un Esperto di Formazione?
Entra anche tu nel Partner program! Accedi alla sezione riservata ai Creator sulla nostra Academy e scopri i vantaggi riservati ai membri del Partner program.

Contattaci tramite WhatsApp al 375 593 1011 per richiedere ulteriori informazioni oppure scriviti alla casella di posta [email protected]



Supporta RHC attraverso:


Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.


I documenti contenenti testo generato sono vietati a meno che il testo generato non faccia parte di un’analisi sperimentale dell’articolo. 

Tuttavia, gli studiosi possono utilizzare l’intelligenza artificiale per correggere il loro testo per migliorarne lo stile o la grammatica. 

Per proteggersi dal plagio, gli accademici dell’ICML hanno vietato l’accettazione di articoli creati con l’aiuto dell’IA. 

Vale la pena notare che queste regole non sono fissate legalmente, quindi potrebbero cambiare in futuro.

Se gli scienziati decidono di attenersi o meno alle regole dipende da loro. Al momento, non esistono strumenti in grado di rilevare efficacemente il testo generato, quindi ICML si affiderà solo alle persone che segnalano documenti sospetti durante il processo di verifica. 

Il testo generato contiene spesso errori fattuali e gli autori dovranno modificare pesantemente il testo AI per non destare sospetti.

I modelli linguistici come ChatGPT vengono addestrati sul testo dal web. 

Imparano a trovare schemi comuni tra le parole al fine di prevedere cosa scrivere dopo, data un’istruzione testuale o un indizio. 

La domanda è: questi sistemi plagiano gli autori o no? 

Al momento non ci sono prove che ChatGPT copi direttamente il testo dell’articolo di qualcun altro, ma i suoi risultati si basano sulla scrittura delle persone. Se si limita a copiare il testo, la lettera automatica è protetta da copyright?

In precedenza, il Dipartimento dell’Istruzione della città di New York aveva vietato l’utilizzo del chatbot ChatGPT sui dispositivi di proprietà del Dipartimento dell’Istruzione.

Redazione
La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull'informatica in generale.

Lista degli articoli

Articoli in evidenza

Da AI white ad AI black il passo è breve. Nuovi strumenti per Script Kiddies bussano alle porte

I ricercatori di Okta  hanno notato che aggressori sconosciuti stanno utilizzando lo strumento di intelligenza artificiale generativa v0 di Vercel per creare pagine false che imitano qu...

Se è gratuito, il prodotto sei tu. Google paga 314 milioni di dollari per violazione dei dati agli utenti Android

Google è al centro di un’imponente causa in California che si è conclusa con la decisione di pagare oltre 314 milioni di dollari agli utenti di smartphone Android nello stato. Una giu...

CTF di RHC 2025. Ingegneria sociale in gioco: scopri la quarta “flag” non risolta

La RHC Conference 2025, organizzata da Red Hot Cyber, ha rappresentato un punto di riferimento per la comunità italiana della cybersecurity, offrendo un ricco programma di talk, workshop e compet...

Linux Pwned! Privilege Escalation su SUDO in 5 secondi. HackerHood testa l’exploit CVE-2025-32463

Nella giornata di ieri, Red Hot Cyber ha pubblicato un approfondimento su una grave vulnerabilità scoperta in SUDO (CVE-2025-32463), che consente l’escalation dei privilegi a root in ambie...

Hackers nordcoreani a libro paga. Come le aziende hanno pagato stipendi a specialisti IT nordcoreani

Il Dipartimento di Giustizia degli Stati Uniti ha annunciato la scoperta di un sistema su larga scala in cui falsi specialisti IT provenienti dalla RPDC i quali ottenevano lavoro presso aziende americ...