Redazione RHC : 10 Gennaio 2023 07:14
La tecnologia che non si conosce mette paura e dopo l’isterismo iniziale sull’utilizzo di Chat GPT, molti iniziano a prendere le distanze.
Anche da chi si occupa proprio di AI.
I leader della Conferenza internazionale sull’apprendimento automatico (ICML) hanno vietato agli scienziati di presentare documenti creati con modelli di linguaggio di grandi dimensioni (LLM) come ChatGPT.
![]() Vuoi diventare un esperto del Dark Web e della Cyber Threat Intelligence (CTI)?Stiamo per avviare il corso intermedio in modalità "Live Class" del corso "Dark Web & Cyber Threat Intelligence". A differenza dei corsi in e-learning, disponibili online sulla nostra piattaforma con lezioni pre-registrate, i corsi in Live Class offrono un’esperienza formativa interattiva e coinvolgente. Condotti dal professor Pietro Melillo, le lezioni si svolgono online in tempo reale, permettendo ai partecipanti di interagire direttamente con il docente e approfondire i contenuti in modo personalizzato. Questi corsi, ideali per aziende, consentono di sviluppare competenze mirate, affrontare casi pratici e personalizzare il percorso formativo in base alle esigenze specifiche del team, garantendo un apprendimento efficace e immediatamente applicabile. Guarda subito l'anteprima gratuita del corso su academy.redhotcyber.com Contattaci per ulteriori informazioni tramite WhatsApp al 375 593 1011 oppure scrivi a [email protected]
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
I documenti contenenti testo generato sono vietati a meno che il testo generato non faccia parte di un’analisi sperimentale dell’articolo.
Tuttavia, gli studiosi possono utilizzare l’intelligenza artificiale per correggere il loro testo per migliorarne lo stile o la grammatica.
Per proteggersi dal plagio, gli accademici dell’ICML hanno vietato l’accettazione di articoli creati con l’aiuto dell’IA.
Vale la pena notare che queste regole non sono fissate legalmente, quindi potrebbero cambiare in futuro.
Se gli scienziati decidono di attenersi o meno alle regole dipende da loro. Al momento, non esistono strumenti in grado di rilevare efficacemente il testo generato, quindi ICML si affiderà solo alle persone che segnalano documenti sospetti durante il processo di verifica.
Il testo generato contiene spesso errori fattuali e gli autori dovranno modificare pesantemente il testo AI per non destare sospetti.
I modelli linguistici come ChatGPT vengono addestrati sul testo dal web.
Imparano a trovare schemi comuni tra le parole al fine di prevedere cosa scrivere dopo, data un’istruzione testuale o un indizio.
La domanda è: questi sistemi plagiano gli autori o no?
Al momento non ci sono prove che ChatGPT copi direttamente il testo dell’articolo di qualcun altro, ma i suoi risultati si basano sulla scrittura delle persone. Se si limita a copiare il testo, la lettera automatica è protetta da copyright?
In precedenza, il Dipartimento dell’Istruzione della città di New York aveva vietato l’utilizzo del chatbot ChatGPT sui dispositivi di proprietà del Dipartimento dell’Istruzione.
Sarebbe fantastico avere un agente AI capace di analizzare automaticamente il codice dei nostri progetti, individuare i bug di sicurezza, generare la correzione e pubblicarla subito in produzione. Epp...
La disillusione nei confronti degli incontri online spinge sempre più le donne a cercare intimità emotiva nel mondo virtuale. Sempre più donne si rivolgono all’intelligenza artificiale, ovvero ai...
Una falla critica di 13 anni, nota come RediShell, presente in Redis, permette l’esecuzione di codice remoto (RCE) e offre agli aggressori la possibilità di acquisire il pieno controllo del sistema...
Se n’è parlato molto poco di questo avvenimento, che personalmente reputo strategicamente molto importante e segno di un forte cambiamento nella gestione delle vulnerabilità non documentate in Ita...
Autore: Inva Malaj e Raffaela Crisci 04/10/2025 – Darkforums.st: “303” Rivendica Data Breach di 9 GB su Apple.com Nelle prime ore del 4 ottobre 2025, sul forum underground Darkforums è comparsa...