
L’intelligenza artificiale provoca interesse e paura in molte persone. Alcuni temono che l’intelligenza artificiale possa superare in astuzia l’umanità e minacciare la sua esistenza, come mostrato nei famosi film di fantascienza.
Tuttavia, un tale scenario è estremamente improbabile, perché le attuali iterazioni dell’IA non sono ancora autocoscienti, ma sono solo in grado di prevedere il testo sulla base dei dati studiati. Anche se tutto questo sembra molto preoccupante .
Per capire come funziona l’IA, non è necessario cercare di penetrare nella sua psicologia. È molto più efficiente analizzare il suo output in termini di probabilità.
Avvio delle iscrizioni al corso Cyber Offensive Fundamentals Vuoi smettere di guardare tutorial e iniziare a capire davvero come funziona la sicurezza informatica? La base della sicurezza informatica, al di là di norme e tecnologie, ha sempre un unico obiettivo: fermare gli attacchi dei criminali informatici. Pertanto "Pensa come un attaccante, agisci come un difensore". Ti porteremo nel mondo dell'ethical hacking e del penetration test come nessuno ha mai fatto prima. Per informazioni potete accedere alla pagina del corso oppure contattarci tramite WhatsApp al numero 379 163 8765 oppure scrivendoci alla casella di posta [email protected].
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Questo approccio ha già dato i suoi frutti: un gruppo di scienziati dell’Università della California a Berkeley è stato in grado di scoprire più informazioni sui prodotti OpenAI di quelle che l’azienda stessa rivela.
Quindi, l’intelligenza artificiale decide cosa produrre in base a ciò che riceve come input. Secondo i ricercatori, il modo in cui l’IA risponde alle richieste degli utenti può essere utilizzato per trarre conclusioni su quali dati ha utilizzato per l’addestramento.
Dopo alcune analisi dei dati, gli scienziati sono giunti alla conclusione che i moderni modelli generativi, in particolare ChatGPT, sono effettivamente addestrati su opere protette da copyright.
Questo è stato discusso in precedenza, ma ora ci sono prove abbastanza certe per questo.
Gli scienziati hanno scoperto che i modelli di OpenAI sono stati alimentati principalmente da testi di fantascienza e fantasy. Gli esperti concordano sul fatto che è meglio utilizzare set di dati aperti per addestrare le reti neurali in modo che il modello finale sia meno distorto nelle sue risposte.
Ma i chatbot, sebbene non di proposito, possono violare il copyright copiando le parti originali di opere specifiche nelle loro risposte.
Se l’originale di un’opera è protetto da copyright, puoi farne solo ciò che il titolare del copyright consente e non agire autonomamente.
Ma l’addestramento di una rete neurale crea un insieme matematico di connessioni, mescolandolo con altri dati simili.
E anche se il risultato finale non sarà molto simile all’opera originale, può essere definito unico, senza violare il copyright?
Forse.
Tuttavia, i detentori del copyright non la pensano così.
D’altra parte, i moderni modelli sono piuttosto creativi, imparano e migliorano rapidamente e tutti i tipi di ritardi legali possono solo rallentare il loro sviluppo.
È del tutto possibile quindi, che le persone si siano così abituate al fatto che nelle loro vite ci siano assistenti così intelligenti come i chatbot che preferiranno scegliere lo sviluppo delle reti neurali, rinunciando al copyright?
Dopo tutto, sono il futuro.
Ma questo lo scopriremo strada facendo.
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

CybercrimeUn nuovo report pubblicato dall’Huntress Tactical Response Team documenta un’intrusione estremamente sofisticata individuata nel dicembre 2025, nella quale un attore avanzato è riuscito a compromettere un’infrastruttura VMware ESXi sfruttando una VM escape, ovvero l’evasione da…
CybercrimeIn un ecosistema digitale sempre più interconnesso, le aziende dipendono da reti di fornitori e partner per operare in modo efficiente. Tuttavia, questa interdipendenza ha trasformato la supply chain in un nuovo perimetro critico della…
CybercrimeUn messaggio di cancellazione da Booking.com con una penale elevata sembra una pratica commerciale tipica di hotel e appartamenti. Ma è proprio questo tipo di email a dare il via a una nuova campagna malware,…
HackingUn nuovo script open source consente agli utenti di Windows 11 di disattivare in modo esteso le funzionalità di intelligenza artificiale integrate nel sistema operativo. Il progetto, sviluppato da Zoicware, si chiama RemoveWindowsAI e nasce…
InnovazioneQuando si parla di sicurezza applicativa, il problema raramente è uno solo. È quasi sempre una catena di piccoli difetti, scelte sbagliate e controlli mancanti che, sommati, aprono la strada a incidenti gravi. È anche…