OpenAI sta formando un nuovo team per sviluppare modi per gestire e controllare i sistemi di intelligenza artificiale “superintelligenti“. Ilya Sutskever, Chief Researcher e uno dei co-fondatori dell’azienda, guiderà il gruppo.
OpenAI prevede che l’IA con un’intelligenza superiore a quella umana potrebbe emergere entro un decennio. E se dovesse mai apparire, potrebbe non essere necessariamente benevola, quindi è necessario esplorare i modi per controllare e limitare tale intelligenza artificiale.
Attualmente, OpenAI non dispone di una soluzione per gestire l’IA super intelligente e impedire che vada fuori controllo. Le attuali tecniche di condizionamento dell’IA, come l’apprendimento per rinforzo basato sul feedback umano, si basano sulla capacità degli esseri umani di controllare l’IA.
Ma come faranno gli umani a controllare i sistemi di intelligenza artificiale che sono molto più intelligenti di loro?
A tal fine, OpenAI sta creando un nuovo team di Superalignment che avrà accesso al 20% delle capacità di calcolo dei server dell’azienda. Insieme a scienziati e ingegneri di OpenAI, nonché ricercatori di altre organizzazioni dell’azienda, il team risolverà i principali problemi tecnici della gestione dell’IA ultra-intelligente nei prossimi quattro anni.
Il team addestrerà i sistemi di intelligenza artificiale utilizzando il feedback umano, addestrerà l’IA per aiutare a valutare altri sistemi di intelligenza artificiale e infine creerà un’IA in grado di controllare le reti neurali in modo che non vadano fuori dai binari. L’ipotesi di OpenAI è che l’intelligenza artificiale possa effettuare dei controlli più velocemente e meglio degli umani. Le reti neurali lavoreranno a fianco degli umani per rendere i propri successori più in linea con gli umani.
Ma non sono sempre AI?