
Redazione RHC : 8 noviembre 2025 17:40
Las últimas declaraciones de Sam Altman, CEO de OpenAI, sobre el progreso de la inteligencia artificial (IA) no son muy alentadoras, ya que recientemente afirmó estar preocupado por «el impacto de la IA en el empleo» y también dejó claro que no estaremos a salvo ni siquiera en un búnker «si la IA se descontrola» .
Pero eso no es todo, porque en una entrevista reciente, el CEO de OpenAI afirmó sin rodeos que deberíamos preocuparnos por el futuro que traerá la inteligencia artificial: «Creo que algo malo sucederá con la inteligencia artificial».
Según un artículo de Investopedia, hace un mes Sam Altman participó en una entrevista para el podcast de vídeo a16z de la firma de capital riesgo Andreessen Horowitz y aprovechó la oportunidad para decir que espera que ocurran cosas malas debido a la inteligencia artificial: «Espero que no ocurran cosas realmente malas debido a la tecnología».
Como se puede ver en la entrevista a continuación, Altman se refería a Sora, una herramienta de generación de vídeo lanzada a finales de septiembre por OpenAI que rápidamente se convirtió en la aplicación más descargada de la App Store en Estados Unidos . Esto dio lugar a una oleada de deepfakes creados con este modelo, que inundó las redes sociales con vídeos de figuras como Martin Luther King Jr. y otras personalidades públicas, incluido el propio Altman .
En efecto, Altman ha aparecido en estos vídeos realizando diversas actividades delictivas , como se puede ver en esta historia de Instagram . Pero eso no es todo, ya que Altman también afirmó que herramientas como Sora necesitan controles para evitar que esta tecnología se utilice con fines maliciosos : «Muy pronto el mundo tendrá que lidiar con increíbles modelos de vídeo que pueden suplantar la identidad de cualquiera o mostrar lo que quieran».
Del mismo modo, el creador de ChatGPT argumentó que, en lugar de perfeccionar este tipo de tecnología a puerta cerrada, la sociedad y la inteligencia artificial deberían colaborar para «coevolucionar» y «no se puede dejar todo para el final «.
Según Altman, lo que deberíamos hacer es familiarizar a la gente con este tipo de tecnología desde una edad temprana, para que las comunidades puedan establecer normas y límites antes de que estas herramientas se vuelvan aún más poderosas. También argumenta que, si lo hacemos, estaremos mejor preparados cuando los modelos de generación de vídeo basados en IA sean aún más avanzados que los actuales.
La advertencia de Sam Altman no se refería solo a los videos falsos, sino también al hecho de que muchos de nosotros tendemos a «externalizar» nuestras decisiones a algoritmos que pocas personas comprenden: «Sigo pensando que habrá momentos extraños o aterradores».
Además, Altman también explicó que el hecho de que la inteligencia artificial aún no haya causado un evento catastrófico “ no significa que nunca lo hará” y que “miles de millones de personas hablando con el mismo cerebro” podrían terminar creando “cosas extrañas a escala social” .
«Creo que, como sociedad, vamos a desarrollar barreras en torno a este fenómeno», afirmó. Finalmente, si bien es algo que nos afecta a todos, Altman se opone a la regulación estricta de esta tecnología porque, según él, «la mayoría de las regulaciones probablemente tienen muchos inconvenientes» y lo ideal sería realizar «pruebas de seguridad muy exhaustivas» con estos nuevos modelos, a los que calificó de «extremadamente sobrehumanos».
Redazione
En 2025, los usuarios siguen dependiendo en gran medida de contraseñas básicas para proteger sus cuentas. Un estudio de Comparitech, basado en un análisis de más de 2 mil millones de contraseñas ...

En unos años, Irlanda y Estados Unidos estarán conectados por un cable de comunicaciones submarino diseñado para ayudar a Amazon a mejorar sus servicios AWS . Los cables submarinos son una parte fu...

No se trata “ solo de mayor velocidad ”: ¡el 6G cambia la naturaleza misma de la red! Cuando hablamos de 6G, corremos el riesgo de reducirlo todo a una simple mejora de velocidad, como si la red ...

En septiembre se publicó una nueva vulnerabilidad que afecta a Notepad++. Esta vulnerabilidad, identificada como CVE-2025-56383, puede consultarse en el sitio web del NIST para obtener más informaci...

Google ha emitido un aviso urgente sobre una vulnerabilidad crítica en Android que permite a los atacantes ejecutar código arbitrario en el dispositivo sin interacción del usuario. La vulnerabilida...