
Redazione RHC : 25 Luglio 2023 17:55
I principali organi di stampa sono infuriati per il fatto che i loro contenuti originali vengano utilizzati dalle aziende di intelligenza artificiale per addestrare il loro modelli generativi. Il New York Times, News Corp, Axel Springer, IAC e altri stanno formando una coalizione per affrontare Google e OpenAI. Lo riporta Semafor.
Il problema sta nella raccolta indiscriminata di contenuti che le aziende effettuano per addestrare i loro grandi modelli linguistici (Large Language Model, LLM). Questo è diventato un problema comune per gli editori e i creatori di contenuti e ha già portato a una serie di azioni legali.
Google e OpenAI hanno già affrontato diverse azioni legali collettive.
Christmas Sale -40% 𝗖𝗵𝗿𝗶𝘀𝘁𝗺𝗮𝘀 𝗦𝗮𝗹𝗲! Sconto del 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮 del Corso "Dark Web & Cyber Threat Intelligence" in modalità E-Learning sulla nostra Academy!🚀
Fino al 𝟯𝟭 𝗱𝗶 𝗗𝗶𝗰𝗲𝗺𝗯𝗿𝗲, prezzi pazzi alla Red Hot Cyber Academy. 𝗧𝘂𝘁𝘁𝗶 𝗶 𝗰𝗼𝗿𝘀𝗶 𝘀𝗰𝗼𝗻𝘁𝗮𝘁𝗶 𝗱𝗲𝗹 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮.
Per beneficiare della promo sconto Christmas Sale, scrivici ad [email protected] o contattaci su Whatsapp al numero di telefono: 379 163 8765.
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Ma la situazione sembra molto più seria, poiché IAC, la holding che avvia il contenzioso, è sostenuta da due importanti holding di media, come il The New York Times Company e News Corp, nonché dall’editore multinazionale europeo Axel Springer.
Secondo quanto riferito, tutte queste società sono vicine alla formazione di una coalizione che potrebbe guidare il contenzioso e spingere per un’azione legislativa. L’obiettivo delle aziende è raggiungere l’introduzione di nuove regole e regolamenti che disciplinano la formazione di modelli di intelligenza artificiale basati su contenuti multimediali.
Si noti che molte pubblicazioni stanno già sperimentando strumenti di intelligenza artificiale volti a migliorare l’efficienza della scrittura di testi. Ad esempio, il tabloid tabloid tedesco Bild ha annunciato a giugno che avrebbe tagliato i costi di 100 milioni di euro e licenziato circa 200 dipendenti. L’editore Axel Springer SE, proprietario di Bild, ha anche affermato di voler utilizzare l’intelligenza artificiale per svolgere alcuni dei compiti precedentemente svolti dai giornalisti.
Il problema più significativo per gli editori, tuttavia, sembra essere meno la minaccia di licenziamenti che la perdita di entrate. Secondo Semafor, le aziende temono che Google possa interrompere l’invio di traffico ai siti Web di pubblicazione e fornire invece risposte testuali alle domande degli utenti tramite un chatbot. Ad esempio, un collegamento a una recensione di un vino sul sito Food & Wine di IAC potrebbe essere sostituito con una semplice raccomandazione testuale di una bottiglia, senza attribuzione.
Google ha iniziato a testare il suo nuovo prodotto, Genesis, che utilizza l’intelligenza artificiale per generare articoli di notizie. Questo strumento è disponibile ed è in fase di test per diverse importanti pubblicazioni come il NY Times, il Washington Post e il Wall Street Journal. Genesis, che sembra sia un nome provvisorio, è in grado di aggregare informazioni, inclusi i dettagli degli eventi attuali, e generare contenuti di notizie.
La Federal Trade Commission (FTC) degli Stati Uniti ha avviato un’indagine sulle attività di OpenAI e della sua intelligenza artificiale ChatGPT per violazioni delle leggi sulla protezione dei consumatori, riporta il Washington Post.
Le affermazioni arrivano dopo che un conduttore radiofonico della Georgia ha intentato una causa contro OpenAI il mese scorso. Ha affermato che ChatGPT lo ha menzionato nel contesto di attività criminali, calunniandolo e danneggiando la sua reputazione.
In precedenza, ad aprile, anche il sindaco di una città australiana aveva minacciato di citare in giudizio OpenAI. Secondo lui, ChatGPT ha affermato di essere coinvolto in uno scandalo di corruzione. A OpenAI sono stati concessi 28 giorni per correggere il suo modello di intelligenza artificiale, ma da allora non sono state segnalate ulteriori azioni legali.
Seguici su Google News, LinkedIn, Facebook e Instagram per ricevere aggiornamenti quotidiani sulla sicurezza informatica. Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.
Redazione
È stato rilasciato uno strumento che consente il monitoraggio discreto dell’attività degli utenti di WhatsApp e Signal utilizzando solo un numero di telefono. Il meccanismo di monitoraggio copre o...

Il MITRE ha reso pubblica la classifica delle 25 più pericolose debolezze software previste per il 2025, secondo i dati raccolti attraverso le vulnerabilità del national Vulnerability Database. Tali...

Un recente resoconto del gruppo Google Threat Intelligence (GTIG) illustra gli esiti disordinati della diffusione di informazioni, mettendo in luce come gli avversari più esperti abbiano già preso p...

All’interno del noto Dark Forum, l’utente identificato come “espansive” ha messo in vendita quello che descrive come l’accesso al pannello di amministrazione dell’Agenzia delle Entrate. Tu...

In seguito alla scoperta di due vulnerabilità zero-day estremamente critiche nel motore del browser WebKit, Apple ha pubblicato urgentemente degli aggiornamenti di sicurezza per gli utenti di iPhone ...