
Redazione RHC : 4 Novembre 2023 16:48
Avevano riportato una volta che quando il genio è uscito dalla lampada, è difficile riportarlo dentro. Mentre Elon Musk, Sam Altman (CEO di OpenAI) e Eric Schmidt (ex CEO di Google) parlano dei grandissimi rischi in cui versa il mondo nei confronti delle AI, anche Ilya Sutskever si unisce al coro.
Ma intanto vanno avanti nelle attività di ricerca e sviluppo, per arrivare primi. A Cosa? A implementare servizi basato sulle AI per i dividendi delle loro rispettive aziende e al guadagno personale andando in contro a quello che dicono “annientamento del genere umano”?
Ai tempi in cui OpenAI era solo un nome familiare nell’area della Baia di San Francisco, il cofondatore e capo scienziato Ilya Sutskever avvertì che la tecnologia che la sua azienda stava costruendo avrebbe cambiato il mondo.
CVE Enrichment Mentre la finestra tra divulgazione pubblica di una vulnerabilità e sfruttamento si riduce sempre di più, Red Hot Cyber ha lanciato un servizio pensato per supportare professionisti IT, analisti della sicurezza, aziende e pentester: un sistema di monitoraggio gratuito che mostra le vulnerabilità critiche pubblicate negli ultimi 3 giorni dal database NVD degli Stati Uniti e l'accesso ai loro exploit su GitHub.
Cosa trovi nel servizio: ✅ Visualizzazione immediata delle CVE con filtri per gravità e vendor. ✅ Pagine dedicate per ogni CVE con arricchimento dati (NIST, EPSS, percentile di rischio, stato di sfruttamento CISA KEV). ✅ Link ad articoli di approfondimento ed exploit correlati su GitHub, per ottenere un quadro completo della minaccia. ✅ Funzione di ricerca: inserisci un codice CVE e accedi subito a insight completi e contestualizzati.
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Ma in quel periodo non si comprendevano i risvolti negativi di quello che sarebbe potuto accadere, anche se nella sua testa probabilmente erano molto chiari.
“L’intelligenza artificiale è una cosa grandiosa, perché risolverà tutti i problemi che abbiamo oggi“, ha detto Sutskever al documentarista Tonje Hessen Schei in un mini-documentario pubblicato da The Guardian. “Risolverà l’occupazione, risolverà le malattie, risolverà la povertà. Ma creerà anche nuovi problemi“.
È chiaro che prima che l’azienda cambiasse davvero il mondo, le persone che ne facevano parte sapevano che tutto questo sarebbe stato rivoluzionario, ed erano già alle prese con le sue implicazioni.
Registrato tra il 2016 e il 2019, il cortometraggio esplora lo stato d’animo di Ilya Sutskever nel momento in cui OpenAI stava costruendo la tecnologia che fornisce le basi per l’ormai virale ChatGPT.
In questo cortometraggio, Sutskever sembrava terribilmente ottimista riguardo all’intelligenza artificiale generale, o AGI. Per lui il significato di AGI è un “sistema informatico in grado di svolgere qualsiasi lavoro o qualsiasi compito svolto da un essere umano, ma solo meglio“.
Anche se non ne parla direttamente, l’esperto di machine learning all’inizio del 2022 affermò che alcuni LLM potrebbero essere “leggermente coscienti“. Ha sposato i principi dell’allineamento dell’intelligenza artificiale assicurarsi che le IA presenti e future siano create per “essere allineate con i nostri obiettivi”, qualunque essi siano.
Sutskever ha continuato confrontando gli obiettivi di qualsiasi futura AGI sfrenata e disallineata con il comportamento familiare di noi umani dicendo:
“Penso che una buona analogia potrebbe essere il modo in cui gli esseri umani trattano gli animali… Non è che odiamo gli animali. Penso che gli esseri umani amino gli animali e nutrano molto affetto per loro. Ma quando arriva il momento di costruire un’autostrada tra due città, non chiediamo il permesso agli animali. Lo facciamo semplicemente perché per noi è importante” e quindi ha detto: “Penso che, per impostazione predefinita, questo sia il tipo di relazione che ci sarà tra noi e le AGI, che sono veramente autonome e operano per proprio conto”.
È un pensiero piuttosto spaventoso, ma di fronte al quale lo scienziato capo di OpenAI non sembra battere ciglio, tranne per dire che sarà “estremamente importante” che gli esseri umani “programmino gli AGI correttamente”.
“Se ciò non viene fatto”, ha concluso, “allora la natura dell’evoluzione, della selezione naturale, favorisce quei sistemi che danno priorità alla propria sopravvivenza“.
Redazione
Il Roskomnadzor della Federazione Russa ha annunciato che continua a imporre restrizioni sistematiche all’app di messaggistica WhatsApp a causa di violazioni della legge russa. Secondo l’agenzia, ...

Siamo nell’era dell’inganno a pagamento. Ogni tuo click è un referendum privato in cui vincono sempre loro, gli algoritmi. E non sbagliano mai: ti osservano, ti profilano, ti conoscono meglio di ...

Questa mattina Paragon Sec è stata contattata da un’azienda italiana vittima di un nuovo tentativo di frode conosciuto come Truffa del CEO. L’ufficio contabilità ha ricevuto un’e-mail urgente,...

i ricercatori di Check Point Software, hanno recentemente pubblicato un’indagine sull’aumento delle truffe farmaceutiche basate sull’intelligenza artificiale. È stato rilevato come i criminali ...

L’Agenzia dell’Unione europea per la sicurezza informatica (ENISA) ha assunto il ruolo di Root all’interno del programma Common Vulnerabilities and Exposures (CVE), diventando il principale punt...