Redazione RHC : 6 Febbraio 2023 10:00
Un ingegnere senior dell’ufficio Microsoft ha chiesto ai suoi dipendenti di non condividere informazioni sensibili con ChatGPT durante l’utilizzo per motivi di lavoro. Lo riporta Insider.
In risposta alle numerose domande dei dipendenti sulla possibilità di utilizzare il chatbot nel proprio lavoro, i responsabili hanno consigliato loro di non trasferire informazioni riservate, incluso il codice, e hanno anche ricordato loro la responsabilità del trasferimento di tali dati.
I dipendenti di Amazon hanno ricevuto un avviso simile.
Vuoi diventare un esperto del Dark Web e della Cyber Threat Intelligence (CTI)?
Stiamo per avviare il corso intermedio in modalità "Live Class", previsto per febbraio.
A differenza dei corsi in e-learning, disponibili online sulla nostra piattaforma con lezioni pre-registrate, i corsi in Live Class offrono un’esperienza formativa interattiva e coinvolgente.
Condotti dal professor Pietro Melillo, le lezioni si svolgono online in tempo reale, permettendo ai partecipanti di interagire direttamente con il docente e approfondire i contenuti in modo personalizzato.
Questi corsi, ideali per aziende, consentono di sviluppare competenze mirate, affrontare casi pratici e personalizzare il percorso formativo in base alle esigenze specifiche del team, garantendo un apprendimento efficace e immediatamente applicabile.
Per ulteriori informazioni, scrivici ad [email protected] oppure scrivici su Whatsapp al 379 163 8765
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
Vale la pena notare che Microsoft ha confermato la sua decisione di investire 10 miliardi di dollari in OpenAI, lo sviluppatore di ChatGPT, e prevede anche di integrare le tecnologie OpenAI AI nel suo motore di ricerca Bing e nei prodotti Office nelle prossime settimane .
Vincent Konitzer, professore e direttore dell’Artificial Intelligence Lab presso la Carnegie Mellon University, ha affermato che la collaborazione tra Microsoft e OpenAI potrebbe creare un conflitto di interessi perché Microsoft potrebbe trarre vantaggio da OpenAI ottenendo più dati di addestramento.
Ha anche osservato che in caso di fuga di informazioni riservate, sarà molto difficile per determinare il colpevole: i dipendenti Microsoft saranno ritenuti responsabili della divulgazione o OpenAI per l’uso incauto delle informazioni, o anche tutti potrebbero essere colpevoli.
I Termini di servizio di OpenAI autorizzano Microsoft a utilizzare tutti i dati generati dagli utenti e il chatbot ChatGPT.
Le società hanno concordato che tutte le informazioni personali (PII) verranno eliminate. Tuttavia, dato il crescente interesse per ChatGPT, le informazioni personali sono ora impossibili da identificare ed eliminare. E molto probabilmente la proprietà intellettuale aziendale non rientra nella definizione di PII.
Sabato 9 maggio, al Teatro Italia di Roma, si è chiusa la Red Hot Cyber Conference 2025, l’appuntamento annuale gratuito creato dalla community di RHC dedicato alla sicurezza informatica, ...
La banda di criminali informatici di NOVA rivendica all’interno del proprio Data Leak Site (DLS) un attacco informatico al Comune di Pisa. Disclaimer: Questo rapporto include screenshot e/o tes...
Un grave attacco informatico ha colpito l’infrastruttura digitale dell’Università nella notte tra l’8 e il 9 maggio, causando l’interruzione improvvisa dei servizi onl...
Per anni, Reddit è rimasto uno dei pochi angoli di Internet in cui era possibile discutere in tutta sicurezza di qualsiasi argomento, dai videogiochi alle criptovalute, dalla politica alle teorie...
Le autorità statunitensi continuano a cercare soluzioni per fermare la fuga di chip avanzati verso la Cina, nonostante le rigide restrizioni all’esportazione in vigore. Il senatore Tom Cot...
Copyright @ REDHOTCYBER Srl
PIVA 17898011006