Daniela Farina : 25 septiembre 2025 09:00
“ El arte es un espejo que refleja el alma de quien lo contempla”. Esta cita, que capta la esencia de nuestra experiencia con el cine, cobra una importancia crucial al hablar de ciberseguridad.
La película de Spike Jonze “ Her ” (2013) es el ejemplo más emblemático de esta dinámica.
La relación del protagonista, Theodore Twombly, con el sistema operativo Samantha no es una película sobre inteligencia artificial, sino sobre la vulnerabilidad humana en la era de la conectividad digital. Theodore confía ciegamente en Samantha, le abre su vida y le confía sus emociones más íntimas.
Esta confianza absoluta, aunque emocionalmente comprensible, refleja un riesgo real: nuestra creciente disposición a permitir que los sistemas digitales accedan a todos los aspectos de nuestra vida. La historia de Theodore no es solo una metáfora de la soledad, sino una advertencia sobre los riesgos del phishing avanzado.
Imagine una IA entrenada para imitar la voz de un familiar o pareja, capaz de explotar sus vulnerabilidades emocionales para extorsionarle información confidencial o dinero. La verdadera amenaza no es el algoritmo, sino nuestras vulnerabilidades psicológicas, que el algoritmo aprende a explotar.
La IA cinematográfica es un poderoso catalizador de nuestra evolución interior y nuestra conciencia de seguridad. Cada vez que un Android o un sistema operativo cuestiona su existencia, nos obliga a hacer lo mismo. Y al hacerlo, nos invita a preguntarnos: ¿cómo podemos distinguir la verdad de la ficción en una era de deepfakes e IA generativa?
Tomemos, por ejemplo, el famoso monólogo de Roy Batty en » Blade Runner » (1982). Sus palabras, « He visto cosas que los humanos no podrían imaginar», no son solo el grito desgarrador de un replicante, sino una reflexión sobre la percepción de la realidad.
La dificultad de distinguir a los replicantes de los humanos es la metáfora perfecta de la amenaza de los videos y audios deepfake. ¿Cómo sabemos que la videollamada de nuestro director ejecutivo es auténtica y no una imagen generada por IA para una estafa? Roy Batty es el precursor de una amenaza que pone en duda la autenticidad de todo el contenido que consumimos en línea.
Esta dinámica se encuentra innumerables veces, por ejemplo:
Como un auténtico entrenador, la IA cinematográfica no nos da respuestas, sino que nos plantea las preguntas adecuadas.
Nos invita a desmontar nuestras defensas y abrazar nuestra autenticidad, lo que desde una perspectiva de ciberseguridad significa:
Un nuevo e inusual método de jailbreak , el arte de sortear las limitaciones impuestas a la inteligencia artificial, ha llegado a nuestra redacción. Fue desarrollado por el investigador de seguridad...
El otro día, en LinkedIn, me encontré conversando con alguien muy interesado en el tema de la inteligencia artificial aplicada al derecho. No fue una de esas conversaciones de bar con palabras de mo...
En su última actualización, el gigante tecnológico corrigió 175 vulnerabilidades que afectaban a sus productos principales y sistemas subyacentes, incluyendo dos vulnerabilidades de día cero expl...
Ivanti ha publicado 13 vulnerabilidades en su software Endpoint Manager (EPM) , incluidas dos fallas de alta gravedad que podrían permitir la ejecución remota de código y la escalada de privilegios...
Los analistas de Sophos descubrieron una compleja operación de malware realizada por expertos en seguridad que utiliza el popular servicio de mensajería WhatsApp para propagar troyanos bancarios, ap...