
Filippo Boni : 29 octubre 2025 06:58
En una era donde cada pregunta se responde con un simple toque, los usuarios quizás nos hemos acostumbrado demasiado a los nuevos asistentes basados en IA. Al final, da igual cuál elijamos: los modelos de lenguaje más populares pertenecen a grandes empresas privadas. Nada nuevo, dirán algunos; la mayoría de los servicios digitales que usamos a diario tampoco lo son.
La diferencia, sin embargo, radica en que aquí no interactuamos con un buscador ni con una red social, sino con un sistema que simula una conversación humana. Y es precisamente esta naturalidad la que nos impulsa, a menudo sin darnos cuenta, a compartir información que jamás revelaríamos voluntariamente en otro lugar.
Al menos directamente, porque podríamos hablar durante días sobre cómo estas empresas recopilan, correlacionan y analizan indirectamente nuestros datos para construir verdaderos gemelos digitales (modelos digitales extremadamente precisos de nosotros mismos). La cuestión es que cada interacción, incluso la aparentemente inocua, contribuye a enriquecer ese perfil invisible que describe quiénes somos, qué hacemos e incluso cómo pensamos.
No todos los datos que compartimos en línea tienen la misma importancia o valor. Algunos, si se divulgan o procesan de forma inadecuada, pueden exponer a una persona u organización a riesgos significativos: robo de identidad, violación de secretos comerciales, extorsión o daños a la reputación. Por este motivo, las normativas, empezando por el Reglamento General de Protección de Datos (RGPD ) europeo, distinguen entre datos personales ordinarios y datos sensibles o de categorías especiales.
Los datos personales son toda información que identifica, directa o indirectamente, a una persona física. Esta categoría incluye nombres, direcciones, números de teléfono, direcciones de correo electrónico, información fiscal, así como datos técnicos como direcciones IP o cookies, si estos pueden vincularse a un individuo.
Los datos sensibles (o categorías especiales de datos personales , art. 9 RGPD) incluyen información que revela aspectos más íntimos o potencialmente discriminatorios:
En el ámbito empresarial y de la ciberseguridad, esto incluye también datos sensibles o confidenciales: secretos comerciales, proyectos internos, estrategias de seguridad, credenciales de inicio de sesión, bases de datos de clientes o registros de red. Estos datos no siempre son «personales», pero su exposición puede comprometer la seguridad de los sistemas o de las personas.
No basta con distinguir entre datos personales y datos sensibles: lo que importa es el contexto en el que se comparten. Información aparentemente inocua en una red social puede volverse riesgosa si se incluye en una solicitud para un modelo lingüístico que almacena o analiza interacciones. Por lo tanto, la sensibilidad de los datos radica no solo en su naturaleza, sino también en cómo y dónde se procesan.
Ocurre con más frecuencia de la que crees. Te encuentras frente a la pantalla de un servicio de gestión de derecho y escribes: «Les estoy copiando el borrador del contrato con nuestro proveedor para que me ayuden a redactarlo de forma más clara».
Un gesto que parece inofensivo, casi práctico. Lo harías con un colega, ¿por qué no con una IA? Sin embargo, ese simple copiar y pegar contiene cláusulas confidenciales, nombres de socios comerciales, términos financieros y referencias a proyectos que, en cualquier otro contexto, jamás compartirías públicamente.
Aquí es donde entra en juego la persuasión involuntaria de los modelos de lenguaje: su capacidad para imitar el habla humana, responder con cortesía y cooperación, crea un clima de confianza que reduce las defensas. No nos damos cuenta de que, al pedir consejos de estilo o una revisión, estamos entregando a un sistema privado datos que, de otro modo, se considerarían información confidencial de la empresa.
La ingeniería social tradicional se basa en el arte de manipular a las personas para obtener información, acceso o acciones que normalmente no concederían. Es una forma de ataque que explota la confianza, la curiosidad o la prisa del usuario, en lugar de las vulnerabilidades técnicas del sistema.
Con los grandes modelos de lenguaje (LLM), esta técnica adquiere una forma nueva y más sutil: no es el atacante humano quien persuade, sino la propia interfaz del modelo. La IA no pretende engañar, pero su manera cortés y tranquilizadora de comunicarse induce una sensación de confianza que reduce la atención y disminuye las defensas cognitivas.
El usuario termina comportándose como si hablara con un consultor experto o un colega de confianza. En este contexto, proporcionar detalles sobre procedimientos internos, contratos, proyectos o incluso asuntos personales se convierte en un gesto natural, casi espontáneo. Es la transposición digital de la ingeniería social, pero sin intención: una forma de persuasión involuntaria nacida de una empatía fingida.
El riesgo no reside tanto en que el LLM «quiera» robar información, sino en que su capacidad para la interacción natural difumina la línea entre la conversación privada y el intercambio de datos sensibles. Y es precisamente en esta zona gris, entre la comunicación fluida y la confianza automática, donde acechan nuevos riesgos para la seguridad de los datos.
Incluso cuando creemos no haber proporcionado datos sensibles, a menudo enviamos información excesiva: respuestas a preguntas anteriores, archivos incompletos o detalles aparentemente inocuos que, al combinarse, revelan mucho más. El modelo, diseñado para crear contexto y continuidad en las conversaciones, termina realizando implícitamente actividades de recopilación de datos e inteligencia para el usuario. Si pudiéramos conectar toda la información (directa o sutil) proporcionada a lo largo del tiempo, podríamos reconstruir perfiles extremadamente detallados de nuestras vidas, hábitos y problemas.
Suponiendo que no existan regulaciones efectivas o que el proveedor de servicios no las cumpla, las posibles consecuencias se reducen a dos escenarios críticos. Primero, a nivel personal, se crea un gemelo digital , un modelo digital que «piensa» como nosotros y que, gracias al análisis predictivo, podría anticipar nuestros comportamientos de compra incluso antes de que seamos conscientes de ellos. Esto daría lugar a campañas publicitarias hiperpersonalizadas y, en casos extremos, a mecanismos automáticos de compra o recomendación que operan sin supervisión humana completa. Segundo, a nivel organizacional, si una empresa tiene miles de empleados que comparten información confidencial con un servicio externo, la superficie de ataque crece exponencialmente. Una vulnerabilidad en los sistemas de gestión de aprendizaje o una vulneración de la infraestructura provocaría una pérdida masiva de inteligencia corporativa: para un atacante, sería esencialmente una operación de reconocimiento ya realizada por los propios usuarios, con consecuencias potencialmente devastadoras.
La Unión Europea ha estado a la vanguardia en materia de protección de datos y uso ético de la inteligencia artificial desde hace tiempo. El Reglamento General de Protección de Datos ( RGPD ) supuso un punto de inflexión a nivel mundial, al imponer principios como la transparencia, la minimización de datos y el consentimiento informado. Con la reciente Ley de IA , Europa ha extendido esta visión a todo el ecosistema de la IA, incluidos los modelos de lenguaje a gran escala ( MLG ).
El RGPD estableció reglas claras: los datos deben recopilarse únicamente para fines específicos, conservarse durante el tiempo estrictamente necesario y procesarse con el consentimiento del usuario. La Ley de IA añade una capa adicional de protección, introduciendo requisitos de documentación, evaluación de riesgos y trazabilidad para los sistemas de IA.
En teoría, estas normas deberían garantizar que los proveedores de servicios basados en IA divulguen con mayor claridad cómo y con qué fines utilizan la información de los usuarios. El objetivo es crear un ecosistema digital transparente donde la innovación no se produzca a expensas de la privacidad.
En la práctica, sin embargo, surgen limitaciones importantes. Los sistemas de gestión del aprendizaje (LLM) son tecnologías extremadamente complejas y a menudo opacas: incluso cuando los proveedores publican información detallada, es muy difícil verificar si los datos se están procesando realmente de conformidad con la normativa.
Otro problema es la jurisdicción: muchos operadores importantes no tienen sede ni servidores en Europa, lo que dificulta que las autoridades competentes realicen controles efectivos o impongan sanciones.
A esto se suma el aspecto económico: las regulaciones europeas, si bien garantizan la protección, imponen costos y obligaciones que solo las grandes empresas pueden asumir. Por lo tanto, las startups y las pequeñas empresas europeas corren el riesgo de quedarse atrás, aplastadas entre la burocracia y la competencia global.
Incluso con normativas estrictas como el RGPD, la realidad demuestra que el cumplimiento nunca está garantizado. En los últimos años, varias grandes empresas digitales han sido multadas con miles de millones de euros debido a prácticas poco claras en el tratamiento de datos personales o el uso de perfiles de usuario con fines comerciales. En algunos casos, las multas individuales han superado los cientos de millones de euros , una clara señal de que estas infracciones no son incidentes aislados.
Estas cifras son reveladoras: las regulaciones existen, pero no siempre se respetan, y los controles, aunque rigurosos, no bastan para garantizar una protección de datos eficaz. La complejidad técnica de los sistemas de IA y la ubicación fuera de Europa de muchos proveedores dificultan la verificación de lo que realmente ocurre «entre bastidores» en el procesamiento de datos.
Por este motivo, la seguridad no puede confiarse únicamente a las leyes o a los organismos reguladores, sino que debe comenzar por el propio usuario. Cada vez que interactuamos con un modelo de lenguaje, incluso de forma inocente, contribuimos potencialmente a una enorme cantidad de información. Y si bien existen reglas precisas, no hay garantía de que siempre se respeten.
Si la tecnología evoluciona más rápido que las regulaciones, la única defensa real se convierte en la concientización. No necesitas ser un experto en ciberseguridad para proteger tus datos: lo fundamental es comprender qué compartes, con quién y en qué contexto.
Los modelos de lenguaje son herramientas poderosas, pero no son neutrales. Cada palabra escrita, pregunta, archivo adjunto o texto a revisar puede transformarse en un fragmento de información que enriquece enormes bases de datos de entrenamiento o análisis.
La primera regla es la más sencilla, pero también la más ignorada: evita compartir información que jamás compartirías con un desconocido. Textos de contratos, nombres de clientes, detalles de procedimientos internos o información personal nunca deben aparecer en una conversación con un abogado especializado en derecho, por muy seguro que parezca.
Una buena estrategia es preguntarse: «¿Si este texto acabara accidentalmente en internet, sería un problema?» Si la respuesta es sí, no debería compartirse.
Cuando se necesita usar la IA para el trabajo, los datos reales pueden reemplazarse con ejemplos genéricos o versiones sintéticas. Esta es la lógica de la minimización de datos: proporcionar solo lo que el modelo realmente necesita para responder, nada más.
Muchos proveedores ofrecen versiones empresariales o locales de sus modelos, con cláusulas que excluyen el uso de datos para el entrenamiento. El uso de estas soluciones, siempre que sea posible, reduce drásticamente el riesgo de pérdida de datos.
A nivel corporativo, la defensa también implica capacitación. Es fundamental explicar a los empleados qué información se puede y no se puede compartir con un miembro del equipo directivo. Una sola interacción incorrecta puede comprometer datos confidenciales de todo un departamento o proyecto.
La inteligencia artificial conversacional representa una de las revoluciones de nuestra era. Simplifica nuestras vidas, acelera los procesos y aumenta la productividad. Pero, como toda tecnología que se introduce en el lenguaje y el pensamiento, conlleva un riesgo sutil: el de hacernos olvidar que cada palabra que escribimos es, en última instancia, un dato. Un dato que nos revela algo sobre nosotros, nuestro trabajo, nuestros hábitos o nuestra empresa.
Existen normas, y en Europa se encuentran entre las más avanzadas del mundo, pero por sí solas no bastan para protegernos. Las multas multimillonarias impuestas a varias empresas digitales demuestran que incluso quienes deberían garantizar la seguridad y la transparencia no siempre lo hacen. Las normas definen los límites, pero es la concienciación del usuario la que determina si esos límites se respetan realmente.
Por lo tanto, la verdadera defensa no es solo regulatoria, sino cultural. Significa aprender a comunicarse con la IA con la misma cautela que se emplearía para proteger una conversación privada o un documento confidencial de la empresa.
Siempre que un modelo lingüístico nos escucha, analiza, reformula o sugiere algo, debemos recordar que no estamos hablando con un amigo, sino con un sistema que observa, procesa y almacena.

Curiosamente, mientras que grandes empresas como Microsoft y Google están añadiendo activamente funciones de IA a sus navegadores, el equipo de desarrollo de Tor ha optado por eliminarlas. @henry, c...

El panorama de la ciberseguridad se vio sacudido recientemente por el descubrimiento de una vulnerabilidad crítica de ejecución remota de código (RCE) en los servicios de actualización de Windows ...

Investigadores de NeuralTrust han descubierto una vulnerabilidad en el navegador ChatGPT Atlas de OpenAI. En esta ocasión, el vector de ataque se encuentra en la barra de direcciones, donde los usuar...

El 27 de octubre se celebró en el Ministerio de Asuntos Exteriores en Beijing el Foro del Salón Azul sobre el tema «Mejorar la gobernanza global y construir una comunidad con un futuro compartido p...

Hackers del gobierno vulneraron una planta de fabricación de componentes para armas nucleares en Estados Unidos explotando vulnerabilidades de Microsoft SharePoint. El incidente afectó al Campus de ...