Redazione RHC : 12 octubre 2025 09:06
La cita, “Definitivamente construiremos un búnker antes de lanzar AGI”, que inspiró el artículo, fue atribuida a un líder de Silicon Valley, aunque no está claro exactamente a quién se refería con “nosotros”.
La frase captura perfectamente la paradoja de nuestros tiempos , y la ironía es evidente: quienes están impulsando la inteligencia artificial más sofisticada del mundo son los mismos que están terriblemente preocupados por sus repercusiones.
Mientras continúan su investigación, idean simultáneamente estrategias de escape. La situación es similar a la de alguien que construye una presa sabiendo que acabará fallando, pero en lugar de reforzarla, prefiere comprar un barco.
En una reunión de verano de 2023, Ilya Sutskever, cofundador de OpenAI y la mente brillante detrás de ChatGPT, hizo una declaración intrigante a sus investigadores: «Definitivamente construiremos un búnker antes de lanzar AGI» … y luego » Por supuesto, será opcional si entrar o no al búnker».
Su enigmática declaración fue interrumpida por un investigador que preguntó qué significaba. Sutskever continuó con una respuesta que dejó atónitos a todos: « Antes de lanzar la IAG, definitivamente construiremos un búnker».
Según el fundador de LinkedIn, Reid Hoffman, una parte significativa, al menos el 50%, de las personas extremadamente ricas de Silicon Valley ya han comprado lo que se llama «seguro del fin del mundo».
El fundador de Amazon, Jeff Bezos, compró dos mansiones de 147 millones de dólares en la isla Indian Creek de Florida. El multimillonario de Oracle, Larry Ellison, también adquirió una propiedad en la isla hawaiana de Lanai. El cofundador de PayPal, Peter Thiel, eligió Nueva Zelanda. El fundador de Alibaba, Jack Ma, el cineasta James Cameron y el gurú financiero William Foley han construido búnkeres postapocalípticos en lugares remotos.
Dame Wendy Hall, profesora de informática en la Universidad de Southampton, discrepa de las predicciones más pesimistas. Argumenta que, según la comunidad científica, la tecnología de inteligencia artificial (IA) es significativamente avanzada, pero aún está lejos de la inteligencia humana . Para lograr una verdadera IAG, se necesitarían avances significativos. Por lo tanto, resulta exagerado. Los plazos, en particular, son desconcertantes.
Pero analicemos la cuestión con calma.
¿Cuándo surgirá la IAG, inteligencia artificial general, comparable a la humana en su amplitud de capacidades? Los optimistas afirman que será muy pronto. Sam Altman, director ejecutivo de OpenAI, afirmó en diciembre de 2024 que ocurriría «antes de lo que la mayoría cree». Sir Demis Hassabis, cofundador de DeepMind, estima el plazo entre cinco y diez años. Dario Amodei, fundador de Anthropic, prefiere hablar de «IA potente» y predice que podría ocurrir ya en 2026.
Los escépticos argumentan que «los hitos se mueven constantemente»: según Dame Wendy Hall, profesora de la Universidad de Southampton, todo depende de a quién se le pregunte. La tecnología es impresionante, pero aún dista mucho de la inteligencia humana. Babak Hojat, director de tecnología de Cognizant, coincide: primero se necesitan varias innovaciones fundamentales. Y no esperen que la IAG surja «instantáneamente»: no es cosa de un día, sino un largo camino, con docenas de empresas que persiguen diferentes enfoques.
Parte de este entusiasmo se debe a la idea de la siguiente etapa: la IAG, o superinteligencia, que superará a los humanos. Ya en 1958, se atribuyó al matemático húngaro-estadounidense John von Neumann la primera formulación de la « singularidad », el punto más allá del cual el ritmo y la naturaleza del desarrollo informático escapan a la comprensión humana.
En su libro Génesis 2024, Eric Schmidt, Craig Mundie y el difunto Henry Kissinger hablan de una tecnología superpoderosa que toma decisiones y controla con tanta eficacia que los humanos están cediendo gradualmente el control. En su lógica, la pregunta no es «si», sino «cuándo».
Los defensores pintan un panorama deslumbrante. La inteligencia artificial (IAG) supuestamente ayudará a encontrar curas para enfermedades mortales, superar la crisis climática y desbloquear fuentes prácticamente ilimitadas de energía limpia. Elon Musk ha hablado de una posible era de «ingresos altos universales», en la que la IA será tan accesible que todos tendrán su propio «R2-D2 y C-3PO».
En su visión, todos tendríamos atención médica, vivienda, mejor transporte y abundancia sostenible. Pero este sueño tiene una desventaja: ¿podemos evitar que terroristas abusen de dicho sistema o concluir automáticamente que nosotros mismos somos el mayor problema del planeta?
Tim Berners-Lee, creador de la World Wide Web, advierte que si una máquina es más inteligente que un humano, debe ser contenida y, de ser necesario, «apagada». Los gobiernos intentan construir barreras de protección. En Estados Unidos, en 2023 se emitió una orden ejecutiva presidencial que obliga a ciertas empresas a compartir los resultados de las pruebas de seguridad con las autoridades, aunque algunas disposiciones se suavizaron posteriormente por considerar que «obstaculizaban la innovación».
Hace dos años, el Reino Unido lanzó el Instituto de Seguridad de la IA, una organización gubernamental que estudia los riesgos de los modelos avanzados. En este contexto, los superricos debaten sobre «seguros apocalípticos» —desde casas en los confines del mundo hasta refugios privados—, aunque incluso aquí, el factor humano lo está alterando todo.
Algunos incluso consideran que todo el debate es erróneo. El profesor de Cambridge Neil Lawrence califica el concepto mismo de IAG de absurdo, como «un vehículo artificial universal». El medio de transporte adecuado siempre depende del contexto: la gente vuela a Kenia, conduce a la universidad y camina a la cafetería. No existe ni existirá nunca un coche universal: ¿por qué esperar lo contrario de la IA?
Lawrence cree que hablar de IA general distrae la atención de los verdaderos cambios que ya están en marcha: por primera vez, la gente común puede hablar con una máquina y comprender su verdadero significado. Esto está cambiando la vida cotidiana, lo que significa que debemos trabajar arduamente para garantizar que la tecnología beneficie a sus usuarios.
Los sistemas actuales se entrenan con enormes conjuntos de datos y son excelentes para reconocer patrones, desde marcadores tumorales en imágenes hasta la probable siguiente palabra en una oración . Pero no los «escuchan», por muy convincentes que parezcan sus respuestas.
Según Babak Hojat, existen maneras ingeniosas de hacer que los modelos lingüísticos grandes parezcan tener memoria y capacidad de aprendizaje, pero estos trucos distan mucho de ser humanos . Vince Lynch, director ejecutivo de IV.AI, advierte que las afirmaciones altisonantes sobre la inteligencia artificial son simplemente un truco publicitario . Si construyes «lo más inteligente del mundo», el dinero llegará. En la práctica, el camino no se mide en dos años: requiere una enorme potencia informática, una inmensa creatividad humana y un sinfín de pruebas y errores.
Sin embargo, en algunos aspectos, las máquinas ya nos superan en la amplitud de sus aplicaciones. La IA generativa puede pasar de la historia medieval a ecuaciones complejas en un minuto. Incluso los desarrolladores no siempre comprenden por qué el modelo responde de cierta manera, y algunas empresas informan de mejoras en sus sistemas. La biología sigue a la vanguardia: el cerebro humano contiene aproximadamente 86 000 millones de neuronas y aproximadamente 600 billones de sinapsis, una cantidad incomparablemente mayor que las arquitecturas artificiales. El cerebro no necesita pausas entre interacciones; reestructura continuamente su visión del mundo .
Si le dices a alguien que se ha descubierto vida en un exoplaneta, lo integrará de inmediato en su visión de la realidad. Un modelo lingüístico solo lo sabe si se repite una y otra vez . Los LLM carecen de metacognición , la capacidad de ser conscientes de su propio conocimiento. Los humanos la poseen, y a menudo se describe como consciencia . Es un elemento fundamental de la inteligencia que aún no se ha replicado en el laboratorio.
Detrás de las grandiosas predicciones y advertencias, parece haber una verdad simple: la inteligencia artificial ya está transformando la vida cotidiana y los procesos de negocios, y hablar de inteligencia artificial “real” es conveniente para recaudadores de fondos y quienes definen agendas.
Si ocurrirá una singularidad y cuándo ocurrirá sigue siendo una incógnita. Pero la calidad de las herramientas que creamos ahora —su seguridad, transparencia y utilidad para las personas— depende de mucho más que debates sobre silos y fechas.
La cita, “Definitivamente construiremos un búnker antes de lanzar AGI”, que inspiró el artículo, fue atribuida a un líder de Silicon Valley, aunque no está claro exactamente a quién se refer...
En Estados Unidos, una campaña de botnets coordinada a gran escala tiene como objetivo servicios basados en el Protocolo de Escritorio Remoto (RDP). La escala y la estructura organizativa de esta cam...
La semana pasada, Oracle advirtió a sus clientes sobre una vulnerabilidad crítica de día cero en su E-Business Suite (CVE-2025-61882), que permite la ejecución remota de código arbitrario sin aut...
Cuando Nick Turley se unió a OpenAI en 2022 para liderar el equipo de ChatGPT, se le encomendó la tarea de transformar la investigación empresarial en un producto comercial. Ha cumplido esta misió...
Del 6 al 9 de octubre de 2025, Varsovia albergó la 11.ª edición del Desafío Europeo de Ciberseguridad (CECA) . En una reñida competición entre 39 equipos de Estados miembros de la UE, países de...