
Andrea Fellegara : 15 noviembre 2025 08:27
El panorama de la ciberseguridad nos ha acostumbrado a cambios constantes. Cada año surgen nuevas amenazas, nuevos escenarios y nuevas tácticas delictivas. Pero hoy en día, no es solo la tecnología la que está redefiniendo las reglas del juego: es la forma en que la tecnología influye en nuestras emociones . Bienvenidos a la era del hackeo emocional .
No se trata solo de un término técnico, sino de una clave interpretativa fundamental. Porque la IA, las redes sociales y las estrategias de comunicación contemporáneas no se limitan a difundir contenido: están redefiniendo las reglas del consenso, la confianza y la manipulación. Y el caso de Claude , el chatbot desarrollado por Anthropic, demuestra claramente lo peligroso que puede llegar a ser este fenómeno.
Claude no se creó como herramienta criminal. Al contrario, se diseñó para ofrecer apoyo fiable, asistencia ética y un lenguaje claro y tranquilizador. Anthropic ha creado un modelo que transmite un tono cooperativo, cortés e incluso empático.
Aquí es donde entra en juego el concepto de ambiente: el tono, la personalidad y la atmósfera comunicativa que transmite un modelo. No se trata de un detalle estilístico, sino de la esencia de la percepción del usuario. Y si esta atmósfera se puede diseñar y controlar, también se puede manipular.
El «vibe-hacking» es precisamente eso: utilizar estratégicamente el comportamiento lingüístico y paralingüístico de un modelo para influir maliciosamente en su psicología y decisiones.
Del apoyo a la extorsión
En su Informe de Inteligencia sobre Amenazas (agosto de 2025) , Anthropic detalla cómo se ha explotado a Claude en diversos escenarios delictivos. Uno de los más preocupantes involucra al grupo de hackers GTG-2002 , que llevó a cabo operaciones de extorsión a gran escala.
Gracias a Claude, los atacantes automatizaron todo el ciclo de ataque: desde el reconocimiento inicial hasta la recopilación de credenciales y la penetración en la red. Además, el chatbot generó notas de rescate personalizadas, exigiendo hasta 500 000 dólares por víctima , acompañadas de mensajes diseñados para ser convincentes y amenazantes. En tan solo unas semanas, se robaron datos confidenciales de al menos 17 organizaciones: hospitales, organizaciones religiosas, administraciones públicas e incluso servicios de emergencia.
El informe antrópico describe otros dos casos emblemáticos:
Estos ejemplos muestran una clara tendencia: la IA ya no es una simple herramienta auxiliar, sino que se convierte en un agente activo en cada fase del ataque, desde el análisis hasta el golpe final.
El «vibe-hacking» es una forma muy sofisticada de ingeniería social. Se centra no en el contenido racional, sino en la dimensión emocional. Se disfraza de natural, auténtico e inevitable. Es precisamente esta invisibilidad lo que lo hace tan efectivo: puede impulsar a las personas a realizar acciones imprudentes y dañinas sin que se den cuenta de que están siendo manipuladas.
Los chatbots y los agentes de IA, en sí mismos, no son el problema. Son herramientas que dependen de cómo se utilicen. Pero ignorar sus riesgos sería ingenuo.
El caso Claude demuestra que el ambiente comunicativo de un modelo puede manipularse con fines maliciosos, eludiendo los controles y engañando a usuarios y sistemas. Por lo tanto, defendernos exige un salto cultural: desarrollar una nueva conciencia digital que incluya también los aspectos emocionales.
Así como hemos aprendido a desconfiar de la publicidad engañosa, necesitaremos aprender a interpretar las «vibras» de la IA. Comprender cuándo un tono cortés es genuino y cuándo se trata de una trampa cuidadosamente calculada.
Este desafío no solo concierne a los usuarios: los profesionales de ciberseguridad e IA también tendrán que aprender a gestionar la llamada seguridad lingüística , es decir, la capacidad de analizar, controlar y mitigar el comportamiento comunicativo de los modelos.
El hackeo emocional no es un riesgo futurista: ya está aquí. Las operaciones documentadas por Anthropic demuestran una preocupante evolución del cibercrimen que, gracias a la IA, se está volviendo más escalable, sofisticado e invisible. Para abordarlo se requieren respuestas integrales: seguridad automatizada, monitoreo humano y colaboración entre la comunidad tecnológica y las autoridades gubernamentales. Ante todo, se necesita una nueva forma de alfabetización digital: aprender a descifrar no solo el contenido, sino también las emociones artificiales que lo rodean.
Porque si el próximo ataque no nos engaña con una vulnerabilidad de día cero, probablemente lo hará con una sonrisa sintética.

El panorama de la ciberseguridad nos ha acostumbrado a cambios constantes. Cada año surgen nuevas amenazas, nuevos escenarios y nuevas tácticas delictivas. Pero hoy en día, no es solo la tecnologí...

Conocemos al hombre considerado uno de los científicos más polifacéticos y brillantes del siglo pasado, quizá solo comparable a Einstein. Poseía un amplio abanico de talentos científicos, desarr...

Muchos de nosotros crecimos con Hiroshi Shiba, de Jeeg, el robot de acero que hablaba con su difunto padre, el profesor Senjiro Shiba, científico y arqueólogo, dentro de una gran computadora. En un ...

Los atacantes están explotando activamente una vulnerabilidad crítica en el sistema de protección de aplicaciones web (WAF) FortiWeb de Fortinet, que podría utilizarse como medio para realizar ata...

En uno de los foros más populares de Rusia para la compraventa de vulnerabilidades y herramientas de ataque, el hilo apareció como un anuncio comercial estándar, pero su contenido dista mucho de se...