
Redazione RHC : 6 Febbraio 2023 10:00
Un ingegnere senior dell’ufficio Microsoft ha chiesto ai suoi dipendenti di non condividere informazioni sensibili con ChatGPT durante l’utilizzo per motivi di lavoro. Lo riporta Insider.
In risposta alle numerose domande dei dipendenti sulla possibilità di utilizzare il chatbot nel proprio lavoro, i responsabili hanno consigliato loro di non trasferire informazioni riservate, incluso il codice, e hanno anche ricordato loro la responsabilità del trasferimento di tali dati.
I dipendenti di Amazon hanno ricevuto un avviso simile.
Prova la Demo di Business Log! Adaptive SOC italiano Log management non solo per la grande Azienda, ma una suite di Audit file, controllo USB, asset, sicurezza e un Security Operation Center PERSONALE, che ti riporta tutte le operazioni necessarie al tuo PC per tutelare i tuoi dati e informati in caso di problemi nel tuo ambiente privato o di lavoro.
Scarica ora la Demo di Business Log per 30gg
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Vale la pena notare che Microsoft ha confermato la sua decisione di investire 10 miliardi di dollari in OpenAI, lo sviluppatore di ChatGPT, e prevede anche di integrare le tecnologie OpenAI AI nel suo motore di ricerca Bing e nei prodotti Office nelle prossime settimane .
Vincent Konitzer, professore e direttore dell’Artificial Intelligence Lab presso la Carnegie Mellon University, ha affermato che la collaborazione tra Microsoft e OpenAI potrebbe creare un conflitto di interessi perché Microsoft potrebbe trarre vantaggio da OpenAI ottenendo più dati di addestramento.
Ha anche osservato che in caso di fuga di informazioni riservate, sarà molto difficile per determinare il colpevole: i dipendenti Microsoft saranno ritenuti responsabili della divulgazione o OpenAI per l’uso incauto delle informazioni, o anche tutti potrebbero essere colpevoli.
I Termini di servizio di OpenAI autorizzano Microsoft a utilizzare tutti i dati generati dagli utenti e il chatbot ChatGPT.
Le società hanno concordato che tutte le informazioni personali (PII) verranno eliminate. Tuttavia, dato il crescente interesse per ChatGPT, le informazioni personali sono ora impossibili da identificare ed eliminare. E molto probabilmente la proprietà intellettuale aziendale non rientra nella definizione di PII.
Redazione
Un nuovo database contenente informazioni personali di cittadini italiani è comparso online poche ore fa. A pubblicarlo è stato un utente con nickname Cetegus, membro del noto forum underground Dark...

Cambia solo la bandiera, ma il risultato è sempre lo stesso. Nel 2017 WikiLeaks pubblicò Vault7, una fuga che mise a nudo l’arsenale della CIA: toolkit per penetrare smartphone, smart-TV e sistemi...

Microsoft ha annunciato un nuovo attacco side-channel sui modelli linguistici remoti. Consente a un aggressore passivo, in grado di visualizzare il traffico di rete crittografato, di determinare l’a...

Una nuova inserzione apparsa su Exploit pochi minuti fa mostra quanto sia cruciale la Cyber Threat Intelligence per prevenire le minacce informatiche. Su uno dei principali forum underground del dark ...

Nel corso dell’ultima settimana, Google ha annunciato che l’assistente Gemini potrà da ora integrare nativamente i servizi YouTube e Google Maps senza la necessità di utilizzare comandi specific...