Redazione RHC : 7 agosto 2025 14:35
Un exejecutivo de Google advierte: la inteligencia artificial está a punto de desplazar a los trabajadores y arrastrarnos hacia una distopía. Mo Gawdat, exejecutivo de Google, advierte: la inteligencia artificial no solo afectará a los empleos de nivel inicial. Amenaza a todos los niveles de trabajo intelectual, desde desarrolladores hasta directores ejecutivos. Predice un futuro cercano caracterizado por una profunda conmoción social y económica, impulsada por la automatización masiva.
Mo Gawdat no solo destaca los riesgos de la IA para los trabajos técnicos o repetitivos. En una entrevista en el podcast Diario de un CEO, argumenta que incluso las profesiones más cualificadas, a menudo consideradas seguras, desaparecerán. Desarrolladores, podcasters e incluso CEOs figuran en la lista. «La IA superará a los humanos en todo. Incluso en el puesto de CEO», advierte.
El exdirector de ventas de Google X se basa en su experiencia empresarial. Su startup actual, Emma.love, desarrolla inteligencia artificial centrada en las relaciones emocionales. Está dirigida por tres personas. «Antes, este proyecto habría requerido 350 desarrolladores», enfatiza. Un ejemplo concreto de la rapidez con la que la capacidad de producción puede concentrarse en manos de muy pocos individuos, potenciada por la automatización.
Además, Mo Gawdat describe nuestra era como una fase de transición: una «era de inteligencia aumentada» en la que los humanos aún conservan un papel. Pero, según él, esto no durará. Este período ya está dando paso a una fase que él llama «dominio de las máquinas», en la que la IA ocupará roles completos, desde asistentes hasta arquitectos. Ya no habría complementariedad entre humanos y máquinas, sino una simple sustitución.
Lejos de ser un tecnófobo, el exejecutivo de Google afirma que quiere construir una inteligencia artificial alineada con los valores humanos. Aboga por sistemas que promuevan el amor, la libertad y la conexión entre las personas. Sin embargo, observa una preocupante brecha entre esta ambición ética y la realidad de sus usos. Según él, la IA es empleada actualmente por actores impulsados principalmente por la rentabilidad y el ego. Este desequilibrio hace que el escenario distópico no solo sea posible, sino probable.
Sitúa el punto de inflexión alrededor de 2027. Este momento marcaría la aparición del desempleo masivo, el aumento de las tensiones sociales y la desintegración de las clases medias.
«A menos que estés en el 0,1% más rico, eres un campesino», afirma. El modelo económico actual no sobreviviría a la automatización generalizada sin una profunda transformación de sus mecanismos redistributivos.
Esto incluso va más allá de la crisis climática. En un episodio anterior del mismo podcast, calificó la IA como una emergencia más grave que el cambio climático y exigió un impuesto del 98% a las empresas que dependen en gran medida de la IA para financiar sus redes de seguridad. Luego mencionó la «mayor» probabilidad de un evento global disruptivo causado por la IA que por el calentamiento global.
Se ha descubierto una falla crítica de día cero, clasificada como CVE-2025-6543, en los sistemas Citrix NetScaler. Esta vulnerabilidad ha sido explotada activamente por hackers maliciosos desde mayo...
Una falla de seguridad en las apps de mensajería de WhatsApp para iOS y macOS de Apple ha sido corregida, según informó la compañía, tras ser probablemente explotada ampliamente junto con una vul...
NetScaler ha alertado a los administradores sobre tres nuevas vulnerabilidades en NetScaler ADC y NetScaler Gateway, una de las cuales ya se está utilizando en ataques activos. Hay actualizaciones di...
Un Jueves Negro para millones de usuarios de Microsoft Teams en todo el mundo. Una función clave de la plataforma de colaboración, la apertura de documentos incrustados de Office, ha sido repentinam...
Mientras que el auge de los robots en China, el mayor mercado y productor mundial de robots, atrae la atención de la industria global de las tecnologías de la información (TI), la aparición de un ...