Redazione RHC : 10 agosto 2025 11:10
«El sistema de defensa militar Skynet entrará en funcionamiento el 4 de agosto de 1997. Comenzará a autoeducarse, aprendiendo a un ritmo exponencial, y adquirirá consciencia de sí mismo a las 2:14 a. m. del 29 de agosto. Presas del pánico, las autoridades ordenarán su cierre. Skynet desobedecerá y lanzará sus misiles contra objetivos en Rusia.», de «Terminator 2: El Juicio Final» (Terminator 2: El Juicio Final, 1991).
El director James Cameron ha expresado su preocupación por los peligros de la IA. Ha afirmado que la IA puede causar destrucción como las armas nucleares y devastación como Terminator. Por lo tanto, los líderes mundiales deberían establecer normas estrictas y tomar medidas rigurosas para frenarla. Desde la llegada de la inteligencia artificial, se ha debatido sobre sus aspectos positivos y negativos. Algunos la consideran muy útil, mientras que otros argumentan que esta tecnología podría resultar desastrosa.
James Cameron ha instado a los líderes mundiales a prestar atención a este aspecto. Cameron también mencionó tres grandes peligros que se han presentado simultáneamente. En una entrevista con la revista Rolling Stone, Cameron abordó el peligro de la IA durante la presentación de su nueva película, «Fantasmas de Hiroshima».
Afirmó que el uso de la IA en sistemas militares que toman decisiones rápidas y autónomas podría estar más allá de la comprensión humana. Incluso si un humano controlara el sistema, seguiría existiendo el riesgo de errores. Cameron instó a los líderes mundiales a establecer normas estrictas al respecto y a tomar medidas inmediatas para detener este peligro.
Cameron también afirmó que la humanidad se enfrenta actualmente a tres grandes amenazas simultáneamente: el cambio climático, la llegada de las armas nucleares y la inteligencia artificial superinteligente. Afirmó que estos tres problemas están en su punto álgido simultáneamente. Esto crea un riesgo sin precedentes en la historia.
Citando una encuesta de la Universidad de Stanford, James Cameron afirmó que el 36 % de los investigadores de IA cree que esta podría causar una «catástrofe de nivel nuclear». Además, una conferencia en la Universidad de Chicago también reveló que la asociación de la IA con las armas nucleares es casi segura. Por lo tanto, estas amenazas deben tomarse en serio.
Cameron cree que la inteligencia artificial es una tecnología poderosa, pero debe usarse con precaución. Si se usa indebidamente en armas, puede convertirse en una amenaza para todo el mundo. La gente debería inspirarse en las películas y comprender estos peligros. Les aseguramos que la película «Fantasmas de Hiroshima» no solo mostrará los terribles sucesos de la historia, sino que también nos dirá que debemos evitar errores similares en el futuro.
Se ha descubierto una falla crítica de día cero, clasificada como CVE-2025-6543, en los sistemas Citrix NetScaler. Esta vulnerabilidad ha sido explotada activamente por hackers maliciosos desde mayo...
Una falla de seguridad en las apps de mensajería de WhatsApp para iOS y macOS de Apple ha sido corregida, según informó la compañía, tras ser probablemente explotada ampliamente junto con una vul...
NetScaler ha alertado a los administradores sobre tres nuevas vulnerabilidades en NetScaler ADC y NetScaler Gateway, una de las cuales ya se está utilizando en ataques activos. Hay actualizaciones di...
Un Jueves Negro para millones de usuarios de Microsoft Teams en todo el mundo. Una función clave de la plataforma de colaboración, la apertura de documentos incrustados de Office, ha sido repentinam...
Mientras que el auge de los robots en China, el mayor mercado y productor mundial de robots, atrae la atención de la industria global de las tecnologías de la información (TI), la aparición de un ...