Red Hot Cyber
La cybersecurity è condivisione. Riconosci il rischio, combattilo, condividi le tue esperienze ed incentiva gli altri a fare meglio di te.
Cerca

ChatGPT: 3 milioni di dollari al giorno per le infrastrutture, tra rischi privacy e copyright

Redazione RHC : 9 Febbraio 2023 09:13

ChatGPT ha conquistato il mondo. 

Entro due mesi dal suo lancio, ha raggiunto 100 milioni di utenti attivi, rendendolo il servizio consumer in più rapida crescita di tutti i tempi. Gli utenti sono attratti dalle funzionalità avanzate di questo strumento. 

E le risposte fornite da ChatGPT sono molto sorprendenti per gli utenti non iniziati all’argomento dei modelli linguistici di grandi dimensioni. Un aspetto molto meno discusso di come funziona una rete neurale è il rischio per la privacy che ChatGPT rappresenta per ogni individuo e i suoi costi di gestione.

3 milioni di dollari al giorno per mantenere attivo ChatGPT


Distribuisci i nostri corsi di formazione diventando un nostro Affiliato

Se sei un influencer, gestisci una community, un blog, un profilo social o semplicemente hai tanta voglia di diffondere cultura digitale e cybersecurity, questo è il momento perfetto per collaborare con RHC Academy. Unisciti al nostro Affiliate Program: potrai promuovere i nostri corsi online e guadagnare provvigioni ad ogni corso venduto. Fai parte del cambiamento. Diffondi conoscenza, costruisci fiducia, genera valore.

Contattaci tramite WhatsApp al 375 593 1011 per richiedere ulteriori informazioni oppure scriviti alla casella di posta [email protected]



Supporta RHC attraverso:


Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.


ChatGPT ha avuto un esordio impressionante, tanto è vero che già si è cominciato a pensare a farlo diventare un servizio a pagamento visti i suoi costi proibitivi per le infrastrutture IT a supporto.

E’ stato riportato che il costo di un solo giorno di esecuzione di ChatGPT è pari a 3 milioni di dollari e ovviamente visto il numero crescente di utenti, non esiterà ad aumentare.

I modelli di linguaggio di grandi dimensioni richiedono enormi quantità di dati per funzionare ed evolversi e quindi hanno bisogno di server per poter ospitare i servizi. Più dati hanno a disposizione, meglio sono nel rilevare modelli, anticipare possibili opzioni di dialogo e generare testi credibili.

Google corre ai ripari e lancia Bard mentre Microsoft integra un ChatBot in Bing

Come abbiamo visto nella giornata di ieri, Microsoft ha integrato un chatbot più potente di ChatGPT all’interno del motore di ricerca Bing. Ma Google ovviamente non sta a guardare.

Già da tempo è scattato l’allarme rosso all’interno di Big G in quanto l’utilizzo dei chatbot potrebbe mettere a rischio le entrate del modello costruito attorno al più grande motore di ricerca al mondo.

Proprio ieri , Google ha svelato la propria intelligenza artificiale conversazionale chiamata Bard, e altri giganti della tecnologia seguiranno sicuramente a breve.

Bard competerà con ChatGPT di Open AI. Questa soluzione sarà presto disponibile come test per un numero limitato di utenti e verrà implementata in seguito.

OpenAI, la società dietro ChatGPT, ha fornito allo strumento parole, Libri, articoli, siti web, post sui social network: tutto ciò che la rete neurale poteva raggiungere, l’ha assorbito in se stesso per migliorare la sua produttività.

I problemi sulla privacy

A nessun utente di Internet è stato chiesto se OpenAI potesse utilizzare questi dati. 

Questa è una chiara violazione della riservatezza. Soprattutto quando i dati che sono entrati nella rete sono riservati e possono essere utilizzati per nuocere.

Anche quando i dati sono pubblicamente disponibili, il loro utilizzo da parte di una rete neurale può violare la cosiddetta “integrità del testo”. Questo è un principio fondamentale nelle discussioni legali sulla privacy. Suggerisce che le informazioni degli individui non dovrebbero essere divulgate al di fuori del contesto in cui sono state originariamente create.

Inoltre, OpenAI non offre alcuna procedura per consentire alle persone di verificare se la società detiene le loro informazioni personali. O per richiederne la rimozione. Questo “diritto all’oblio” è particolarmente importante quando le informazioni sono imprecise o fuorvianti. Tuttavia, questo è abbastanza comune per ChatGPT.

Ci sono anche dei problemi relativi al Copyright

I dati puliti su cui è stato addestrato ChatGPT potrebbero essere protetti da copyright. Ad esempio, se chiedi alla rete neurale di scrivere il testo di un libro che è disponibile solo illegalmente nel pubblico dominio, la rete neurale può effettivamente distribuire questo testo. Nonostante il libro sia a pagamento e ufficialmente disponibile solo nei negozi online.

Lo stesso vale per altri tipi di informazioni. OpenAI semplicemente non ha pagato per i dati che la sua rete neurale ha estratto da Internet. Gli individui, i proprietari di siti Web e le aziende che li hanno creati non ricevono alcun compenso per queste informazioni. 

Questo fatto è particolarmente degno di nota, insieme al fatto che OpenAI è stato recentemente valutato a 29 miliardi di dollari. Il doppio del suo valore nel 2021.

OpenAI ha anche recentemente annunciato ChatGPT Plus, un piano a pagamento che offrirà ai clienti un accesso stabile allo strumento, tempi di risposta rapidi e accesso prioritario alle nuove funzionalità. Questo piano fornirà all’azienda un fatturato annuo previsto di 1 miliardo di dollari. Tutto questo non sarebbe possibile senza i dati dei comuni utenti di Internet, raccolti e utilizzati senza autorizzazione.

Il problema dei dati forniti dagli utenti stessi

Un altro rischio per la privacy è legato ai dati che gli utenti di ChatGPT forniscono al bot nel processo di comunicazione con esso. Dopotutto, per porre una domanda, è necessario fornire alla rete neurale alcune informazioni di input. E spesso, involontariamente, queste informazioni possono essere riservate. 

Ad esempio, un avvocato potrebbe chiedere alla rete neurale di rivedere una bozza di accordo di divorzio o un programmatore potrebbe chiederle di rivedere un pezzo di codice. Tutti questi dati possono essere utilizzati da ChatGPT per ulteriore apprendimento e inclusi nelle risposte alle domande di altre persone. In altre parole, tutti i segreti “sporchi” possono essere rivelati dalla rete neurale a chiunque formuli la richiesta in modo sufficientemente accurato.

Ulteriori informazioni raccolte da ChatGPT

Inoltre, OpenAI raccoglie un’ampia gamma di altre informazioni sugli utenti: indirizzi IP degli utenti; tipo di browser, le sue impostazioni; dati sull’interazione dell’utente con il sito; il tipo di contenuto con cui interagiscono; le funzionalità che utilizzano; azioni che intraprendono. 

Tutte queste informazioni possono essere raccolte liberamente da OpenAI in conformità con la politica sulla privacy dell’azienda.

Alcuni esperti ritengono che ChatGPT sia un punto di svolta per l’IA. Nonostante i suoi potenziali benefici, va ricordato che OpenAI è una società commerciale privata i cui interessi e imperativi commerciali non sono necessariamente in linea con le norme e i valori accettati dalla maggioranza.

I rischi per la privacy associati a ChatGPT dovrebbero suonare come un avvertimento. Il numero di tecnologie che utilizzano l’intelligenza artificiale e le reti neurali cresce ogni giorno, quindi gli utenti dovrebbero essere estremamente attenti a quali informazioni vengono condivise su Internet.

Redazione
La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull'informatica in generale.

Lista degli articoli

Articoli in evidenza

Da AI white ad AI black il passo è breve. Nuovi strumenti per Script Kiddies bussano alle porte

I ricercatori di Okta  hanno notato che aggressori sconosciuti stanno utilizzando lo strumento di intelligenza artificiale generativa v0 di Vercel per creare pagine false che imitano qu...

Se è gratuito, il prodotto sei tu. Google paga 314 milioni di dollari per violazione dei dati agli utenti Android

Google è al centro di un’imponente causa in California che si è conclusa con la decisione di pagare oltre 314 milioni di dollari agli utenti di smartphone Android nello stato. Una giu...

CTF di RHC 2025. Ingegneria sociale in gioco: scopri la quarta “flag” non risolta

La RHC Conference 2025, organizzata da Red Hot Cyber, ha rappresentato un punto di riferimento per la comunità italiana della cybersecurity, offrendo un ricco programma di talk, workshop e compet...

Linux Pwned! Privilege Escalation su SUDO in 5 secondi. HackerHood testa l’exploit CVE-2025-32463

Nella giornata di ieri, Red Hot Cyber ha pubblicato un approfondimento su una grave vulnerabilità scoperta in SUDO (CVE-2025-32463), che consente l’escalation dei privilegi a root in ambie...

Hackers nordcoreani a libro paga. Come le aziende hanno pagato stipendi a specialisti IT nordcoreani

Il Dipartimento di Giustizia degli Stati Uniti ha annunciato la scoperta di un sistema su larga scala in cui falsi specialisti IT provenienti dalla RPDC i quali ottenevano lavoro presso aziende americ...