
Redazione RHC : 22 Giugno 2023 08:02
Scienziati tedeschi e statunitensi hanno condotto delle analisi e sono giunti alla conclusione che sarà impossibile controllare l’intelligenza artificiale (AI), quando questa supererà la comprensione umana. Il loro studio è stato pubblicato nel Journal of Artificial Intelligence Research nel 2021. Da allora è stato aggiornato per riflettere i progressi dell’IA fin al 2023.
Gli autori sostengono che per controllare l’IA super-intelligente, è necessario creare un modello del suo comportamento e analizzarlo. Tuttavia, se non siamo in grado di comprenderne gli obiettivi e i metodi per raggiungere questo scopo, non saremo in grado di sviluppare un tale modello.
Principi come “non nuocere alle persone” non possono essere applicati, perché non sappiamo quali scenari l’IA potrà sviluppare, sottolineano gli autori.
Prova la Demo di Business Log! Adaptive SOC italiano Log management non solo per la grande Azienda, ma una suite di Audit file, controllo USB, asset, sicurezza e un Security Operation Center PERSONALE, che ti riporta tutte le operazioni necessarie al tuo PC per tutelare i tuoi dati e informati in caso di problemi nel tuo ambiente privato o di lavoro.
Scarica ora la Demo di Business Log per 30gg
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Si riferiscono anche al problema dell’arresto proposto e predetto da Alan Turing nel 1936. L’essenza del problema è che è impossibile determinare in anticipo se un programma per computer completerà il suo lavoro o lo cercherà di risolvere all’infinito. Turing ha dimostrato che questo era logicamente irraggiungibile per qualsiasi programma implementabile per quell’epoca.
Gli autori propongono di limitare le capacità dell’IA, ad esempio disconnettendola da determinati segmenti di Internet o reti specifiche. Ma anche gli scienziati respingono questa idea perché riduce l’utilità dell’IA. Gli esperti fanno anche una domanda: se non useremo l’IA per risolvere problemi al di là delle capacità umane, allora perché dovremmo crearla?
Se continuiamo a sviluppare l’intelligenza artificiale, potremmo non notare l’emergere delle AI super intelligenti le quali possono sfuggire dal nostro controllo, poiché sarà per noi incomprensibile.
Redazione
I ladri sono entrati attraverso una finestra del secondo piano del Musée du Louvre, ma il museo aveva avuto anche altri problemi oltre alle finestre non protette, secondo un rapporto di audit sulla s...

Reuters ha riferito che Trump ha detto ai giornalisti durante un’intervista preregistrata nel programma “60 Minutes” della CBS e sull’Air Force One durante il viaggio di ritorno: “I chip pi�...

Il primo computer quantistico atomico cinese ha raggiunto un importante traguardo commerciale, registrando le sue prime vendite a clienti nazionali e internazionali, secondo quanto riportato dai media...

Il CEO di NVIDIA, Jen-Hsun Huang, oggi supervisiona direttamente 36 collaboratori suddivisi in sette aree chiave: strategia, hardware, software, intelligenza artificiale, pubbliche relazioni, networki...

OpenAI ha presentato Aardvark, un assistente autonomo basato sul modello GPT-5 , progettato per individuare e correggere automaticamente le vulnerabilità nel codice software. Questo strumento di inte...