
L’intelligenza artificiale provoca interesse e paura in molte persone. Alcuni temono che l’intelligenza artificiale possa superare in astuzia l’umanità e minacciare la sua esistenza, come mostrato nei famosi film di fantascienza.
Tuttavia, un tale scenario è estremamente improbabile, perché le attuali iterazioni dell’IA non sono ancora autocoscienti, ma sono solo in grado di prevedere il testo sulla base dei dati studiati. Anche se tutto questo sembra molto preoccupante .
Per capire come funziona l’IA, non è necessario cercare di penetrare nella sua psicologia. È molto più efficiente analizzare il suo output in termini di probabilità.
Christmas Sale -40% 𝗖𝗵𝗿𝗶𝘀𝘁𝗺𝗮𝘀 𝗦𝗮𝗹𝗲! Sconto del 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮 del Corso "Dark Web & Cyber Threat Intelligence" in modalità E-Learning sulla nostra Academy!🚀
Fino al 𝟯𝟭 𝗱𝗶 𝗗𝗶𝗰𝗲𝗺𝗯𝗿𝗲, prezzi pazzi alla Red Hot Cyber Academy. 𝗧𝘂𝘁𝘁𝗶 𝗶 𝗰𝗼𝗿𝘀𝗶 𝘀𝗰𝗼𝗻𝘁𝗮𝘁𝗶 𝗱𝗲𝗹 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮.
Per beneficiare della promo sconto Christmas Sale, scrivici ad [email protected] o contattaci su Whatsapp al numero di telefono: 379 163 8765.
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Questo approccio ha già dato i suoi frutti: un gruppo di scienziati dell’Università della California a Berkeley è stato in grado di scoprire più informazioni sui prodotti OpenAI di quelle che l’azienda stessa rivela.
Quindi, l’intelligenza artificiale decide cosa produrre in base a ciò che riceve come input. Secondo i ricercatori, il modo in cui l’IA risponde alle richieste degli utenti può essere utilizzato per trarre conclusioni su quali dati ha utilizzato per l’addestramento.
Dopo alcune analisi dei dati, gli scienziati sono giunti alla conclusione che i moderni modelli generativi, in particolare ChatGPT, sono effettivamente addestrati su opere protette da copyright.
Questo è stato discusso in precedenza, ma ora ci sono prove abbastanza certe per questo.
Gli scienziati hanno scoperto che i modelli di OpenAI sono stati alimentati principalmente da testi di fantascienza e fantasy. Gli esperti concordano sul fatto che è meglio utilizzare set di dati aperti per addestrare le reti neurali in modo che il modello finale sia meno distorto nelle sue risposte.
Ma i chatbot, sebbene non di proposito, possono violare il copyright copiando le parti originali di opere specifiche nelle loro risposte.
Se l’originale di un’opera è protetto da copyright, puoi farne solo ciò che il titolare del copyright consente e non agire autonomamente.
Ma l’addestramento di una rete neurale crea un insieme matematico di connessioni, mescolandolo con altri dati simili.
E anche se il risultato finale non sarà molto simile all’opera originale, può essere definito unico, senza violare il copyright?
Forse.
Tuttavia, i detentori del copyright non la pensano così.
D’altra parte, i moderni modelli sono piuttosto creativi, imparano e migliorano rapidamente e tutti i tipi di ritardi legali possono solo rallentare il loro sviluppo.
È del tutto possibile quindi, che le persone si siano così abituate al fatto che nelle loro vite ci siano assistenti così intelligenti come i chatbot che preferiranno scegliere lo sviluppo delle reti neurali, rinunciando al copyright?
Dopo tutto, sono il futuro.
Ma questo lo scopriremo strada facendo.
Seguici su Google News, LinkedIn, Facebook e Instagram per ricevere aggiornamenti quotidiani sulla sicurezza informatica. Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.


La cultura del “tanto chi vuoi che mi attacchi?” gira ancora, testarda. Non è uno slogan, è proprio un modo di pensare. Una specie di alibi mentale che permette di rimandare, di non guardare tro...

La sicurezza informatica è un tema che non scherza, specialmente quando si parla di vulnerabilità che possono compromettere l’intero sistema. Ebbene, Hewlett Packard Enterprise (HPE) ha appena lan...

La Cybersecurity and Infrastructure Security Agency (CISA) ha diramato un’allerta critica includendo tre nuove vulnerabilità nel suo catalogo delle minacce informatiche sfruttate (KEV), evidenziand...

Quando si parla di sicurezza informatica, è normale pensare a un gioco costante tra chi attacca e chi difende. E in questo gioco, le vulnerabilità zero-day sono il jackpot per gli hacker criminali. ...

L’Open Source Intelligence (OSINT) è emersa, negli ultimi anni, come una delle discipline più affascinanti, ma anche più insidiose, nel panorama dell’informazione e della sicurezza. La sua esse...