
Redazione RHC : 11 Maggio 2023 08:32
L’intelligenza artificiale provoca interesse e paura in molte persone. Alcuni temono che l’intelligenza artificiale possa superare in astuzia l’umanità e minacciare la sua esistenza, come mostrato nei famosi film di fantascienza.
Tuttavia, un tale scenario è estremamente improbabile, perché le attuali iterazioni dell’IA non sono ancora autocoscienti, ma sono solo in grado di prevedere il testo sulla base dei dati studiati. Anche se tutto questo sembra molto preoccupante .
Per capire come funziona l’IA, non è necessario cercare di penetrare nella sua psicologia. È molto più efficiente analizzare il suo output in termini di probabilità.
Christmas Sale -40% 𝗖𝗵𝗿𝗶𝘀𝘁𝗺𝗮𝘀 𝗦𝗮𝗹𝗲! Sconto del 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮 del Corso "Dark Web & Cyber Threat Intelligence" in modalità E-Learning sulla nostra Academy!🚀
Fino al 𝟯𝟭 𝗱𝗶 𝗗𝗶𝗰𝗲𝗺𝗯𝗿𝗲, prezzi pazzi alla Red Hot Cyber Academy. 𝗧𝘂𝘁𝘁𝗶 𝗶 𝗰𝗼𝗿𝘀𝗶 𝘀𝗰𝗼𝗻𝘁𝗮𝘁𝗶 𝗱𝗲𝗹 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮.
Per beneficiare della promo sconto Christmas Sale, scrivici ad [email protected] o contattaci su Whatsapp al numero di telefono: 379 163 8765.
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Questo approccio ha già dato i suoi frutti: un gruppo di scienziati dell’Università della California a Berkeley è stato in grado di scoprire più informazioni sui prodotti OpenAI di quelle che l’azienda stessa rivela.
Quindi, l’intelligenza artificiale decide cosa produrre in base a ciò che riceve come input. Secondo i ricercatori, il modo in cui l’IA risponde alle richieste degli utenti può essere utilizzato per trarre conclusioni su quali dati ha utilizzato per l’addestramento.
Dopo alcune analisi dei dati, gli scienziati sono giunti alla conclusione che i moderni modelli generativi, in particolare ChatGPT, sono effettivamente addestrati su opere protette da copyright.
Questo è stato discusso in precedenza, ma ora ci sono prove abbastanza certe per questo.
Gli scienziati hanno scoperto che i modelli di OpenAI sono stati alimentati principalmente da testi di fantascienza e fantasy. Gli esperti concordano sul fatto che è meglio utilizzare set di dati aperti per addestrare le reti neurali in modo che il modello finale sia meno distorto nelle sue risposte.
Ma i chatbot, sebbene non di proposito, possono violare il copyright copiando le parti originali di opere specifiche nelle loro risposte.
Se l’originale di un’opera è protetto da copyright, puoi farne solo ciò che il titolare del copyright consente e non agire autonomamente.
Ma l’addestramento di una rete neurale crea un insieme matematico di connessioni, mescolandolo con altri dati simili.
E anche se il risultato finale non sarà molto simile all’opera originale, può essere definito unico, senza violare il copyright?
Forse.
Tuttavia, i detentori del copyright non la pensano così.
D’altra parte, i moderni modelli sono piuttosto creativi, imparano e migliorano rapidamente e tutti i tipi di ritardi legali possono solo rallentare il loro sviluppo.
È del tutto possibile quindi, che le persone si siano così abituate al fatto che nelle loro vite ci siano assistenti così intelligenti come i chatbot che preferiranno scegliere lo sviluppo delle reti neurali, rinunciando al copyright?
Dopo tutto, sono il futuro.
Ma questo lo scopriremo strada facendo.
Redazione
In seguito alla scoperta di due vulnerabilità zero-day estremamente critiche nel motore del browser WebKit, Apple ha pubblicato urgentemente degli aggiornamenti di sicurezza per gli utenti di iPhone ...

La recente edizione 2025.4 di Kali Linux è stata messa a disposizione del pubblico, introducendo significative migliorie per quanto riguarda gli ambienti desktop GNOME, KDE e Xfce. D’ora in poi, Wa...

La saga sulla sicurezza dei componenti di React Server continua questa settimana. Successivamente alla correzione di una vulnerabilità critica relativa all’esecuzione di codice remoto (RCE) che ha ...

Un nuovo allarme arriva dal sottobosco del cybercrime arriva poche ore fa. A segnalarlo l’azienda ParagonSec, società specializzata nel monitoraggio delle attività delle cyber gang e dei marketpla...

Cisco Talos ha identificato una nuova campagna ransomware chiamata DeadLock: gli aggressori sfruttano un driver antivirus Baidu vulnerabile (CVE-2024-51324) per disabilitare i sistemi EDR tramite la t...