Redazione RHC : 7 agosto 2025 14:35
Un exejecutivo de Google advierte: la inteligencia artificial está a punto de desplazar a los trabajadores y arrastrarnos hacia una distopía. Mo Gawdat, exejecutivo de Google, advierte: la inteligencia artificial no solo afectará a los empleos de nivel inicial. Amenaza a todos los niveles de trabajo intelectual, desde desarrolladores hasta directores ejecutivos. Predice un futuro cercano caracterizado por una profunda conmoción social y económica, impulsada por la automatización masiva.
Mo Gawdat no solo destaca los riesgos de la IA para los trabajos técnicos o repetitivos. En una entrevista en el podcast Diario de un CEO, argumenta que incluso las profesiones más cualificadas, a menudo consideradas seguras, desaparecerán. Desarrolladores, podcasters e incluso CEOs figuran en la lista. «La IA superará a los humanos en todo. Incluso en el puesto de CEO», advierte.
El exdirector de ventas de Google X se basa en su experiencia empresarial. Su startup actual, Emma.love, desarrolla inteligencia artificial centrada en las relaciones emocionales. Está dirigida por tres personas. «Antes, este proyecto habría requerido 350 desarrolladores», enfatiza. Un ejemplo concreto de la rapidez con la que la capacidad de producción puede concentrarse en manos de muy pocos individuos, potenciada por la automatización.
Además, Mo Gawdat describe nuestra era como una fase de transición: una «era de inteligencia aumentada» en la que los humanos aún conservan un papel. Pero, según él, esto no durará. Este período ya está dando paso a una fase que él llama «dominio de las máquinas», en la que la IA ocupará roles completos, desde asistentes hasta arquitectos. Ya no habría complementariedad entre humanos y máquinas, sino una simple sustitución.
Lejos de ser un tecnófobo, el exejecutivo de Google afirma que quiere construir una inteligencia artificial alineada con los valores humanos. Aboga por sistemas que promuevan el amor, la libertad y la conexión entre las personas. Sin embargo, observa una preocupante brecha entre esta ambición ética y la realidad de sus usos. Según él, la IA es empleada actualmente por actores impulsados principalmente por la rentabilidad y el ego. Este desequilibrio hace que el escenario distópico no solo sea posible, sino probable.
Sitúa el punto de inflexión alrededor de 2027. Este momento marcaría la aparición del desempleo masivo, el aumento de las tensiones sociales y la desintegración de las clases medias.
«A menos que estés en el 0,1% más rico, eres un campesino», afirma. El modelo económico actual no sobreviviría a la automatización generalizada sin una profunda transformación de sus mecanismos redistributivos.
Esto incluso va más allá de la crisis climática. En un episodio anterior del mismo podcast, calificó la IA como una emergencia más grave que el cambio climático y exigió un impuesto del 98% a las empresas que dependen en gran medida de la IA para financiar sus redes de seguridad. Luego mencionó la «mayor» probabilidad de un evento global disruptivo causado por la IA que por el calentamiento global.
Google ha presentado una nueva herramienta de IA para Drive para escritorio. Se dice que el modelo se ha entrenado con millones de muestras reales de ransomware y puede suspender la sincronización pa...
Expertos de Palo Alto Networks han identificado un nuevo grupo de hackers vinculado al Partido Comunista Chino. Unit 42, la división de inteligencia de amenazas de la compañía con sede en Californi...
Los sistemas de Inteligencia Artificial Generativa (GenAI) están revolucionando la forma en que interactuamos con la tecnología, ofreciendo capacidades extraordinarias en la creación de texto, imá...
La Agencia de Seguridad de Infraestructura y Ciberseguridad de Estados Unidos (CISA) ha añadido una vulnerabilidad crítica en la popular utilidad Sudo, utilizada en sistemas Linux y similares a Unix...
El Departamento de Justicia de EE. UU. recibió autorización judicial para realizar una inspección remota de los servidores de Telegram como parte de una investigación sobre explotación infantil. ...