
Redazione RHC : 10 Gennaio 2023 07:14
La tecnologia che non si conosce mette paura e dopo l’isterismo iniziale sull’utilizzo di Chat GPT, molti iniziano a prendere le distanze.
Anche da chi si occupa proprio di AI.
I leader della Conferenza internazionale sull’apprendimento automatico (ICML) hanno vietato agli scienziati di presentare documenti creati con modelli di linguaggio di grandi dimensioni (LLM) come ChatGPT.
CALL FOR SPONSOR - Sponsorizza la Graphic Novel Betti-RHC Sei un'azienda innovativa, che crede nella diffusione di concetti attraverso metodi "non convenzionali"? Conosci il nostro corso sul cybersecurity awareness a fumetti? Red Hot Cyber sta ricercando un nuovo sponsor per una nuova puntata del fumetto Betti-RHC mentre il team è impegnato a realizzare 3 nuovi episodi che ci sono stati commissionati. Contattaci tramite WhatsApp al numero 375 593 1011 per richiedere ulteriori informazioni oppure alla casella di posta [email protected]
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
I documenti contenenti testo generato sono vietati a meno che il testo generato non faccia parte di un’analisi sperimentale dell’articolo.
Tuttavia, gli studiosi possono utilizzare l’intelligenza artificiale per correggere il loro testo per migliorarne lo stile o la grammatica.
Per proteggersi dal plagio, gli accademici dell’ICML hanno vietato l’accettazione di articoli creati con l’aiuto dell’IA.
Vale la pena notare che queste regole non sono fissate legalmente, quindi potrebbero cambiare in futuro.
Se gli scienziati decidono di attenersi o meno alle regole dipende da loro. Al momento, non esistono strumenti in grado di rilevare efficacemente il testo generato, quindi ICML si affiderà solo alle persone che segnalano documenti sospetti durante il processo di verifica.
Il testo generato contiene spesso errori fattuali e gli autori dovranno modificare pesantemente il testo AI per non destare sospetti.
I modelli linguistici come ChatGPT vengono addestrati sul testo dal web.
Imparano a trovare schemi comuni tra le parole al fine di prevedere cosa scrivere dopo, data un’istruzione testuale o un indizio.
La domanda è: questi sistemi plagiano gli autori o no?
Al momento non ci sono prove che ChatGPT copi direttamente il testo dell’articolo di qualcun altro, ma i suoi risultati si basano sulla scrittura delle persone. Se si limita a copiare il testo, la lettera automatica è protetta da copyright?
In precedenza, il Dipartimento dell’Istruzione della città di New York aveva vietato l’utilizzo del chatbot ChatGPT sui dispositivi di proprietà del Dipartimento dell’Istruzione.
Redazione
Il mercato clandestino del cybercrime continua a evolversi rapidamente, alimentato da gruppi specializzati che progettano e vendono strumenti per truffe digitali sempre più sofisticate. Tra questi, u...

L’azienda giapponese Science ha lanciato una lavatrice per esseri umani. La capsula lunga 2,30 metri lava una persona in 15 minuti e ha suscitato notevole interesse all’Expo di Osaka concluso rece...

Airbus ha annunciato il richiamo di circa 6.500 aeromobili A320 a causa di potenziali guasti al sistema di controllo ELAC causati da potenti brillamenti solari. Il richiamo è avvenuto in seguito a un...

Questo articolo analizza la disclosure presentata a Microsoft e consultabile in inglese su digitaldefense, dove sono disponibili immagini, video dimostrativi e un esempio di codice Python. Negli ultim...

L’azienda italiana di difesa Leonardo ha presentato il suo nuovo sistema Michelangelo Dome. Secondo l’azienda, è progettato per contrastare missili ipersonici e attacchi di massa con droni. Duran...