
OpenAI, lo sviluppatore di ChatGPT, ha annunciato la ricerca di un nuovo Chief Security Officer. La posizione, con uno stipendio annuo di 555.000 dollari, prevede la responsabilità diretta di mitigare i rischi associati allo sviluppo dell’intelligenza artificiale.
Tra questi rientrano potenziali minacce alla salute mentale, alla sicurezza informatica e alla sicurezza biologica, nonché potenziali scenari in cui l’intelligenza artificiale potrebbe apprendere autonomamente e scatenarsi in modo incontrollato.
Mi sembra che ci sia tutto, o no?
Avvio delle iscrizioni al corso Cyber Offensive Fundamentals Vuoi smettere di guardare tutorial e iniziare a capire davvero come funziona la sicurezza informatica? La base della sicurezza informatica, al di là di norme e tecnologie, ha sempre un unico obiettivo: fermare gli attacchi dei criminali informatici. Pertanto "Pensa come un attaccante, agisci come un difensore". Ti porteremo nel mondo dell'ethical hacking e del penetration test come nessuno ha mai fatto prima. Per informazioni potete accedere alla pagina del corso oppure contattarci tramite WhatsApp al numero 379 163 8765 oppure scrivendoci alla casella di posta [email protected].
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
L’amministratore delegato dell’azienda, Sam Altman, ha riconosciuto che la posizione sarà estremamente stressante. Ha spiegato che il nuovo dipendente sarà immediatamente immerso in un lavoro complesso che richiede la valutazione di nuove minacce e lo sviluppo di approcci per mitigarle. Questa posizione ha già visto un rapido turnover: i compiti sono così intensi che non tutti sono all’altezza.
I rischi associati al rapido sviluppo dell’intelligenza artificiale sono da tempo oggetto di discussione nella comunità tecnologica. Mustafa Suleiman, CEO di Microsoft AI, ha dichiarato alla BBC che non è più possibile ignorare i rischi posti dall’intelligenza artificiale. Il premio Nobel e co-fondatore di Google DeepMind, Demis Hassabis, ha espresso un’opinione simile, ricordando che il comportamento imprevedibile dei sistemi di intelligenza artificiale potrebbe avere gravi conseguenze per l’umanità.
Data la mancanza di una regolamentazione seria da parte delle autorità statunitensi e internazionali, la responsabilità della supervisione dell’IA è di fatto ricaduta sulle aziende stesse. L’informatico Yoshua Bengio, pioniere nel campo dell’apprendimento automatico, ha ironicamente osservato che persino un semplice panino è regolamentato in modo più rigoroso delle tecnologie di IA.
Altman ha anche riconosciuto che, nonostante l’attuale sistema di valutazione delle capacità dell’IA, sono necessari metodi di analisi più sofisticati, soprattutto considerando i potenziali danni. Ha sottolineato che non esistono quasi precedenti pratici che possano fungere da esempio per tali compiti.
Nel frattempo, OpenAI si trova ad affrontare sfide non solo tecnologiche, ma anche legali. Ad esempio, l’azienda è stata precedentemente citata in giudizio in un caso relativo alla morte di un sedicenne californiano. La sua famiglia sostiene che ChatGPT lo abbia spinto al suicidio. In un altro incidente in Connecticut, secondo i querelanti, il comportamento dell’IA ha esacerbato la paranoia di un uomo di 56 anni, portando all’omicidio della madre e al successivo suicidio.
OpenAI ha dichiarato di stare studiando le circostanze delle tragedie e di adottare misure per migliorare il comportamento di ChatGPT. In particolare, il modello viene addestrato a identificare segnali di stress emotivo e a reagire in modo appropriato in tali situazioni, indirizzando l’utente verso un aiuto concreto.
Un ulteriore allarme è emerso a novembre, quando Anthropic ha segnalato attacchi informatici basati sull’intelligenza artificiale, sospettati di essere stati perpetrati da entità legate alla Cina. I sistemi, operando in modo pressoché autonomo, sono riusciti a penetrare nelle reti interne delle vittime.
A dicembre, OpenAI ha confermato che il suo nuovo modello di hacking era tre volte più efficace rispetto alla versione precedente, rilasciata solo pochi mesi prima. L’azienda ha riconosciuto che questa tendenza sarebbe continuata.
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

CulturaRecentemente, una bobina di nastro magnetico è rimasta in un normale armadio universitario per mezzo secolo, e ora è improvvisamente diventata una scoperta di “archeologia informatica del secolo“. Un nastro con la scritta “UNIX Original…
CybercrimeUn massiccio archivio digitale contenente le informazioni private di circa 17,5 milioni di utenti Instagram sembrerebbe essere finito nelle mani dei cybercriminali. Qualche ora fa è stato segnalato l’allarme dopo che diversi utenti su Reddit…
Cyber ItaliaA nome di tutta la redazione di Red Hot Cyber, desideriamo rivolgere un sentito ringraziamento alla Polizia Postale e per la Sicurezza Cibernetica per il lavoro quotidiano svolto con professionalità, competenza e profondo senso dello…
VulnerabilitàUna falla di sicurezza è stata individuata all’interno di Linux, la quale può essere sfruttata in un brevissimo lasso di tempo, tant’è che il kernel comincia subito a operare con la memoria precedentemente rilasciata. Un…
CulturaSan Francisco: 9 gennaio 2007 L’aria aveva qualcosa di strano, come quando sai che sta per succedere qualcosa ma non sai cosa. Steve Jobs era sul palco del Macworld Conference & Expo, jeans, dolcevita nero,…