
Redazione RHC : 6 Febbraio 2023 10:00
Un ingegnere senior dell’ufficio Microsoft ha chiesto ai suoi dipendenti di non condividere informazioni sensibili con ChatGPT durante l’utilizzo per motivi di lavoro. Lo riporta Insider.
In risposta alle numerose domande dei dipendenti sulla possibilità di utilizzare il chatbot nel proprio lavoro, i responsabili hanno consigliato loro di non trasferire informazioni riservate, incluso il codice, e hanno anche ricordato loro la responsabilità del trasferimento di tali dati.
I dipendenti di Amazon hanno ricevuto un avviso simile.
Christmas Sale -40% 𝗖𝗵𝗿𝗶𝘀𝘁𝗺𝗮𝘀 𝗦𝗮𝗹𝗲! Sconto del 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮 del Corso "Dark Web & Cyber Threat Intelligence" in modalità E-Learning sulla nostra Academy!🚀
Fino al 𝟯𝟭 𝗱𝗶 𝗗𝗶𝗰𝗲𝗺𝗯𝗿𝗲, prezzi pazzi alla Red Hot Cyber Academy. 𝗧𝘂𝘁𝘁𝗶 𝗶 𝗰𝗼𝗿𝘀𝗶 𝘀𝗰𝗼𝗻𝘁𝗮𝘁𝗶 𝗱𝗲𝗹 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮.
Per beneficiare della promo sconto Christmas Sale, scrivici ad [email protected] o contattaci su Whatsapp al numero di telefono: 379 163 8765.
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Vale la pena notare che Microsoft ha confermato la sua decisione di investire 10 miliardi di dollari in OpenAI, lo sviluppatore di ChatGPT, e prevede anche di integrare le tecnologie OpenAI AI nel suo motore di ricerca Bing e nei prodotti Office nelle prossime settimane .
Vincent Konitzer, professore e direttore dell’Artificial Intelligence Lab presso la Carnegie Mellon University, ha affermato che la collaborazione tra Microsoft e OpenAI potrebbe creare un conflitto di interessi perché Microsoft potrebbe trarre vantaggio da OpenAI ottenendo più dati di addestramento.
Ha anche osservato che in caso di fuga di informazioni riservate, sarà molto difficile per determinare il colpevole: i dipendenti Microsoft saranno ritenuti responsabili della divulgazione o OpenAI per l’uso incauto delle informazioni, o anche tutti potrebbero essere colpevoli.
I Termini di servizio di OpenAI autorizzano Microsoft a utilizzare tutti i dati generati dagli utenti e il chatbot ChatGPT.
Le società hanno concordato che tutte le informazioni personali (PII) verranno eliminate. Tuttavia, dato il crescente interesse per ChatGPT, le informazioni personali sono ora impossibili da identificare ed eliminare. E molto probabilmente la proprietà intellettuale aziendale non rientra nella definizione di PII.
Seguici su Google News, LinkedIn, Facebook e Instagram per ricevere aggiornamenti quotidiani sulla sicurezza informatica. Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.
Redazione
È stato rilasciato uno strumento che consente il monitoraggio discreto dell’attività degli utenti di WhatsApp e Signal utilizzando solo un numero di telefono. Il meccanismo di monitoraggio copre o...

Il MITRE ha reso pubblica la classifica delle 25 più pericolose debolezze software previste per il 2025, secondo i dati raccolti attraverso le vulnerabilità del national Vulnerability Database. Tali...

Un recente resoconto del gruppo Google Threat Intelligence (GTIG) illustra gli esiti disordinati della diffusione di informazioni, mettendo in luce come gli avversari più esperti abbiano già preso p...

All’interno del noto Dark Forum, l’utente identificato come “espansive” ha messo in vendita quello che descrive come l’accesso al pannello di amministrazione dell’Agenzia delle Entrate. Tu...

In seguito alla scoperta di due vulnerabilità zero-day estremamente critiche nel motore del browser WebKit, Apple ha pubblicato urgentemente degli aggiornamenti di sicurezza per gli utenti di iPhone ...