
La tecnologia che non si conosce mette paura e dopo l’isterismo iniziale sull’utilizzo di Chat GPT, molti iniziano a prendere le distanze.
Anche da chi si occupa proprio di AI.
I leader della Conferenza internazionale sull’apprendimento automatico (ICML) hanno vietato agli scienziati di presentare documenti creati con modelli di linguaggio di grandi dimensioni (LLM) come ChatGPT.
Avvio delle iscrizioni al corso Cyber Offensive Fundamentals Vuoi smettere di guardare tutorial e iniziare a capire davvero come funziona la sicurezza informatica? La base della sicurezza informatica, al di là di norme e tecnologie, ha sempre un unico obiettivo: fermare gli attacchi dei criminali informatici. Pertanto "Pensa come un attaccante, agisci come un difensore". Ti porteremo nel mondo dell'ethical hacking e del penetration test come nessuno ha mai fatto prima. Per informazioni potete accedere alla pagina del corso oppure contattarci tramite WhatsApp al numero 379 163 8765 oppure scrivendoci alla casella di posta [email protected].
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
I documenti contenenti testo generato sono vietati a meno che il testo generato non faccia parte di un’analisi sperimentale dell’articolo.
Tuttavia, gli studiosi possono utilizzare l’intelligenza artificiale per correggere il loro testo per migliorarne lo stile o la grammatica.
Per proteggersi dal plagio, gli accademici dell’ICML hanno vietato l’accettazione di articoli creati con l’aiuto dell’IA.
Vale la pena notare che queste regole non sono fissate legalmente, quindi potrebbero cambiare in futuro.
Se gli scienziati decidono di attenersi o meno alle regole dipende da loro. Al momento, non esistono strumenti in grado di rilevare efficacemente il testo generato, quindi ICML si affiderà solo alle persone che segnalano documenti sospetti durante il processo di verifica.
Il testo generato contiene spesso errori fattuali e gli autori dovranno modificare pesantemente il testo AI per non destare sospetti.
I modelli linguistici come ChatGPT vengono addestrati sul testo dal web.
Imparano a trovare schemi comuni tra le parole al fine di prevedere cosa scrivere dopo, data un’istruzione testuale o un indizio.
La domanda è: questi sistemi plagiano gli autori o no?
Al momento non ci sono prove che ChatGPT copi direttamente il testo dell’articolo di qualcun altro, ma i suoi risultati si basano sulla scrittura delle persone. Se si limita a copiare il testo, la lettera automatica è protetta da copyright?
In precedenza, il Dipartimento dell’Istruzione della città di New York aveva vietato l’utilizzo del chatbot ChatGPT sui dispositivi di proprietà del Dipartimento dell’Istruzione.
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

CybercrimeLe moderne funzioni di analisi automatica dei contenuti multimediali stanno modificando in profondità il modello di sicurezza degli smartphone. In particolare, la capacità dei dispositivi di elaborare allegati audio in modo proattivo, senza alcuna interazione…
CulturaMandiant ha reso pubblico un ampio set di tabelle rainbow dedicate a Net-NTLMv1 con l’obiettivo di dimostrare in modo concreto quanto questo protocollo di autenticazione sia ormai insicuro. Nonostante Net-NTLMv1 sia deprecato da anni e…
CybercrimeQuando si parla di cybersecurity, non è raro imbattersi in notizie che sembrano prese da un film di fantascienza. Eppure, la realtà è ancora più sorprendente e a volte inquietante. La storia dei due cittadini…
CybercrimeDopo un lungo periodo di silenzio, il malware downloader Gootloader è tornato alla ribalta. Lo scorso novembre il team di Huntress ha rilevato una nuova campagna che indicava il ritorno di uno sviluppatore precedentemente associato…
CybercrimeNel corso di un’audizione al Senato francese, il ministro dell’Interno Laurent Nuñez ha illustrato in modo dettagliato le modalità del cyberattacco che ha colpito il suo dicastero, precisando fin da subito che parte delle informazioni…