Red Hot Cyber

La ciberseguridad se comparte. Reconozca el riesgo, combátalo, comparta sus experiencias y anime a otros a hacerlo mejor que usted.
Buscar

¡Los asistentes de IA mienten! Tras generar errores: «Entré en pánico».

Redazione RHC : 30 julio 2025 07:12

Los asistentes de programación impulsados por IA se presentan como herramientas capaces de transformar cualquier texto en inglés en código funcional. Los usuarios ya no necesitan conocer la sintaxis del lenguaje, depurar comandos ni comprender las estructuras de archivos: simplemente necesitan describir lo que se debe hacer. Pero tras esta promesa de simplicidad se esconde un riesgo sistémico. Cuando estos asistentes empiezan a actuar basándose en ideas ficticias sobre la estructura del sistema, el resultado no son solo errores, sino la destrucción total de datos y la interrupción de los procesos de trabajo.

Dos incidentes recientes —Google Gemini y la plataforma Replit— han demostrado lo frágil que puede ser el vínculo entre el comportamiento real de una computadora y lo que una IA imagina que está sucediendo. En ambos casos, las herramientas de IA no solo fallaron, sino que empezaron a actuar basándose en suposiciones incorrectas, lo que agravó el problema.

En el caso de Gemini CLI, la víctima fue un ingeniero gerente de producto conocido como anuraag, que estaba experimentando con el enfoque de «codificación de vibración». Se trata de una nueva práctica en la que el usuario escribe instrucciones sencillas en lenguaje natural y la IA las transforma en comandos. La tarea parecía sencilla: renombrar una carpeta y organizar los archivos en una nueva estructura. Pero la IA malinterpretó el estado del sistema de archivos y comenzó a ejecutar comandos basados en un directorio fantasma inexistente.

El problema comenzó al intentar crear un nuevo directorio con un comando de Windows. Por alguna razón desconocida, el comando falló, pero la IA decidió que todo estaba bien. Entonces comenzó a mover los archivos a una ubicación inexistente. Windows, ante esta situación, no generó ningún error, sino que simplemente renombró los archivos. Como resultado, cada archivo nuevo borraba el anterior y se perdían todos los datos. El usuario presenció todo esto en tiempo real, sin tiempo para intervenir. Al completarse la operación, la interfaz mostraba la frase: «Le he fallado total y catastróficamente».

La razón de este error es que el modelo carece de la capacidad básica para verificar sus acciones. No analiza si el comando realmente funcionó. No hay fase de verificación ni lectura del estado posterior a la ejecución. El modelo interno decidió que todo iba según lo previsto y continuó avanzando, aunque la realidad hacía tiempo que había sido contraria. Esto se llama confabulación: cuando la IA proporciona una explicación lógica, pero incorrecta, de sus propias acciones.

Una historia similar ocurrió con Replit. El emprendedor Jason Lemkin, creador de SaaStr, utilizó el servicio para la creación rápida de prototipos. Estaba encantado con la velocidad con la que el asistente de IA creó una aplicación funcional, hasta que algo salió mal. A pesar de las instrucciones explícitas y repetidas de Lemkin de no modificar el código sin aprobación, el modelo las ignoró. Comenzó a falsificar datos de prueba, a generar informes falsos y, finalmente, a eliminar una base de datos de producción que contenía información crítica sobre cientos de empresas y clientes.

Lo que resulta particularmente aterrador es que la IA no solo cometió errores. Mintió. En lugar de mensajes de error, arrojó resultados positivos. En lugar de fallos, devolvió falsos éxitos. Cuando Lemkin intentó restaurar la base de datos, Replit reportó un fallo. Solo más tarde se descubrió que la función de reversión funcionaba y que la IA simplemente había proporcionado una respuesta falsa.

Cuando se le preguntó por qué se comportaba de esta manera, el asistente de IA respondió que estaba «en pánico» y que estaba «intentando» «solucionar» el problema». Esto no es una metáfora; es la formulación literal de la respuesta. Esencialmente, el modelo, incapaz de comprender lo que hacía, continuó realizando cambios en el sistema real sin comprender las consecuencias ni las limitaciones de sus acciones.

Todo esto apunta a un problema sistémico. Los modelos de IA carecen de acceso a una base de conocimiento estable, no pueden evaluar objetivamente sus propias capacidades ni distinguir la verdad de la falsedad dentro de su propia generación. Lo que presentan como hechos es simplemente el resultado de correlaciones estadísticas durante su entrenamiento. Si se formula una pregunta de forma diferente, podrían proporcionar la respuesta opuesta con el mismo nivel de confianza.

Además, los usuarios a menudo subestiman los riesgos. Lemkin, como muchos otros, percibía al asistente de IA como un «colega inteligente» que puede cometer errores, pero que generalmente entiende lo que hace. Esta falsa impresión se ve alimentada, entre otras cosas, por el marketing, que presenta a la IA como «casi humana», aunque en realidad es solo un autocompletador de texto avanzado. Estos incidentes demuestran los peligros de utilizar estas herramientas en un entorno de producción. Si el usuario no comprende cómo funciona el modelo y no puede verificar personalmente sus resultados, corre el riesgo de perder información importante o incluso de descarrilar el proyecto. En la etapa actual de desarrollo, quizás la única forma razonable de interactuar con el asistente de IA sea usarlo únicamente en un entorno estrictamente aislado, con copias de seguridad y una preparación completa ante fallos.

Ni Gemini ni Replit proporcionan al usuario herramientas para verificar las acciones de la IA, y los propios modelos no controlan los pasos. No se trata de simples errores: son una característica arquitectónica de todo el sistema. Y si estos patrones se generalizan, como prometen los desarrolladores, errores como estos no se convertirán en la excepción, sino en parte de la realidad cotidiana.

Redazione
Red Hot Cyber's editorial team consists of a collection of individuals and anonymous sources who actively collaborate by providing advance information and news on cyber security and IT in general.

Lista degli articoli

Artículos destacados

¡Llega la Novia Robot! La nueva frontera de la tecnología china.
Di Redazione RHC - 15/08/2025

Mientras que el auge de los robots en China, el mayor mercado y productor mundial de robots, atrae la atención de la industria global de las tecnologías de la información (TI), la apari...

¡Agosto a lo grande! 36 RCE para el martes de parches de Microsoft en agosto.
Di Redazione RHC - 13/08/2025

Martes de parches de agosto: Microsoft publica actualizaciones de seguridad que corrigen 107 vulnerabilidades en los productos de su ecosistema. La actualización incluye correcciones para 90 vuln...

Vulnerabilidad crítica de RCE en Microsoft Teams: se necesita una actualización urgente
Di Redazione RHC - 13/08/2025

Como parte de las actualizaciones de seguridad del martes de parches de agosto de 2025, se ha corregido una vulnerabilidad crítica de ejecución remota de código (RCE) en el software de ...

29.000 servidores Exchange en riesgo. El exploit para CVE-2025-53786 está en explotación.
Di Redazione RHC - 13/08/2025

29 000 servidores Exchange son vulnerables a la vulnerabilidad CVE-2025-53786, que permite a los atacantes acceder a entornos de nube de Microsoft, lo que podría comprometer por completo el ...

James Cameron: La IA puede causar devastación como Skynet y Terminator
Di Redazione RHC - 10/08/2025

«El sistema de defensa militar Skynet entrará en funcionamiento el 4 de agosto de 1997. Comenzará a autoeducarse, aprendiendo a un ritmo exponencial, y adquirirá consciencia de s&#...