OpenAI assume dipendenti in outsourcing per 2 dollari all'ora per migliorare l'etica di ChatGPT
Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Cerca
UtiliaCS 970x120
320x100 Itcentric
OpenAI assume dipendenti in outsourcing per 2 dollari all’ora per migliorare l’etica di ChatGPT

OpenAI assume dipendenti in outsourcing per 2 dollari all’ora per migliorare l’etica di ChatGPT

Redazione RHC : 19 Gennaio 2023 09:28

Il creatore di ChatGPT, OpenAI, è ora in trattative con gli investitori per raccogliere fondi per una valutazione di 29 miliardi di dollari, incluso un potenziale investimento di 10 miliardi di dollari da parte di Microsoft.

Ciò renderebbe OpenAI, fondata a San Francisco nel 2015, una delle aziende di intelligenza artificiale di maggior valore al mondo.

Ma la storia del successo non è solo quella del genio della Silicon Valley. Nella sua ricerca per rendere ChatGPT meno tossico, OpenAI ha utilizzato lavoratori kenioti in outsourcing che guadagnano meno di 2 dollari l’ora, come scoperto da un’indagine del TIME.


Cve Enrichment Redhotcyber

CVE Enrichment
Mentre la finestra tra divulgazione pubblica di una vulnerabilità e sfruttamento si riduce sempre di più, Red Hot Cyber ha lanciato un servizio pensato per supportare professionisti IT, analisti della sicurezza, aziende e pentester: un sistema di monitoraggio gratuito che mostra le vulnerabilità critiche pubblicate negli ultimi 3 giorni dal database NVD degli Stati Uniti e l'accesso ai loro exploit su GitHub.

Cosa trovi nel servizio:
✅ Visualizzazione immediata delle CVE con filtri per gravità e vendor.
✅ Pagine dedicate per ogni CVE con arricchimento dati (NIST, EPSS, percentile di rischio, stato di sfruttamento CISA KEV).
✅ Link ad articoli di approfondimento ed exploit correlati su GitHub, per ottenere un quadro completo della minaccia.
✅ Funzione di ricerca: inserisci un codice CVE e accedi subito a insight completi e contestualizzati.


Supporta Red Hot Cyber attraverso: 

  1. L'acquisto del fumetto sul Cybersecurity Awareness
  2. Ascoltando i nostri Podcast
  3. Seguendo RHC su WhatsApp
  4. Seguendo RHC su Telegram
  5. Scarica gratuitamente “Byte The Silence”, il fumetto sul Cyberbullismo di Red Hot Cyber

Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì.

Poiché l’intelligenza artificiale impara dai testi di dominio pubblico, può inevitabilmente creare affermazioni razziste, sessiste e altre indesiderate. Per risolvere questo problema, OpenAI, lo sviluppatore del chat bot ChatGPT, si sta muovendo per trovare e filtrare le affermazioni “tossiche” che produce.

Infatti, OpenAI si è rivolta a Sama, un’azienda che assume lavoratori provenienti da paesi del terzo mondo per svolgere attività rutinarie a basso salario. La società ha già esperienza con Facebook, dove mette a disposizione persone per moderare i video non conformi alle sue policy, per una paga minima.

Secondo il Time, OpenAI ha firmato tre contratti con Sama per un totale di circa 200.000 dollari per contrassegnare le descrizioni dei testi prodotti da ChatGPT.

Ciò consentirà alla rete neurale di migliorare il proprio lavoro ed evitare dichiarazioni indesiderate. Nel complesso, questo processo di markup dei dati contribuirà a creare un chatbot più efficiente ed etico che comprenderà e risponderà meglio alle esigenze degli utenti.

Sama ha affermato che i dipendenti che lavorano con OpenAI chiedevano di contrassegnare circa 70 frammenti di testo in 9 ore di lavoro, e non 250, come riportato nel contratto. I salari variavano da 1,46 a 3,74 dollari l’ora, al netto delle tasse. 

La società ha anche notato che la tariffa oraria di 12,5 dollari l’ora specificata nel contratto include tutti i costi, inclusi stipendi, infrastrutture e benefici per il personale. Gli operatori che si occupano di contenuti violenti, possono avere accesso a un programma di supporto psicologico individualmente o in gruppo in qualsiasi momento. 

OpenAI ha riconosciuto di aver utilizzato i dipendenti Sama come outsourcer, ma ha notato che questo lavoro ha aiutato molte persone ad uscire dalla povertà. 

Andrew Strait, un esperto di etica dell’IA, ha affermato che non dovremmo dimenticare che ChatGPT e altri modelli generativi non sono magici, si basano su enormi quantità di lavoro umano e dati estratti.

Immagine del sitoRedazione
La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull'informatica in generale.

Lista degli articoli

Articoli in evidenza

Immagine del sito
Una richiesta e il server è tuo! Il bug critico di React Server ha bisogno di patch immediate
Di Redazione RHC - 04/12/2025

Sviluppatori e amministratori di tutto il mondo stanno aggiornando urgentemente i propri server a seguito della scoperta di una vulnerabilità critica in React Server, che consente agli aggressori di ...

Immagine del sito
CTI e Dark Web: qual è il confine invisibile tra sicurezza difensiva e reato penale?
Di Paolo Galdieri - 04/12/2025

Il panorama della sicurezza informatica moderna è imprescindibile dalla conoscenza della topografia del Dark Web (DW), un incubatore di contenuti illeciti essenziale per la criminalità organizzata. ...

Immagine del sito
CISA: Guida per l’integrazione sicura dell’AI nella tecnologia operativa (OT)
Di Redazione RHC - 04/12/2025

Dalla pubblicazione pubblica di ChatGPT nel novembre 2022, l’intelligenza artificiale (AI) è stata integrata in molti aspetti della società umana. Per i proprietari e gli operatori delle infrastru...

Immagine del sito
l nuovo Re dei DDoS è qui! 69 secondi a 29,7 terabit mitigati da Cloudflare
Di Redazione RHC - 03/12/2025

Un servizio di botnet chiamato Aisuru, offre un esercito di dispositivi IoT e router compromessi, per sferrare attacchi DDoS ad alto traffico. In soli tre mesi, la massiccia botnet Aisuru ha lanciato ...

Immagine del sito
Dentro a Lazarus! Il falso candidato che ha ingannato i cyber-spioni nordcoreani
Di Redazione RHC - 03/12/2025

Un’indagine congiunta di BCA LTD, NorthScan e ANY.RUN ha svelato uno degli schemi di hacking più segreti della Corea del Nord. Con il pretesto di un reclutamento di routine, il team ha monitorato c...