Redazione RHC : 25 julio 2025 11:47
Las falsificaciones generadas por inteligencia artificial han traspasado el umbral entre la realidad y la fantasía. Cada vez más creíbles e insidiosas, estas falsificaciones de vídeo y audio se están volviendo cada vez más peligrosas. Su potencial de daño es evidente: desde campañas de desprestigio con motivaciones políticas hasta suplantaciones de identidad de famosos, sin mencionar las estafas dirigidas a empresas y particulares, estas tecnologías pueden socavar la credibilidad de la información que percibimos en línea. Los legisladores daneses han dado un paso importante al introducir una legislación que aborda directamente esta creciente amenaza. Esta reciente legislación otorga a las personas derechos de propiedad legal sobre sus propios rostros y voces, prohibiendo la creación de deepfakes dañinos. Esta medida marca un importante avance, estableciendo un modelo para otros países de la Unión Europea y destacando la necesidad esencial de una estrategia legal unificada para combatir el uso indebido de la inteligencia. Artificial.
Anna Collard, vicepresidenta sénior de Estrategia de Contenido y promotora de KnowBe4, afirmó: «Los legisladores daneses están dando ejemplo: se necesita urgentemente protección legal contra los deepfakes. Al devolver a las personas la propiedad de sus rostros y voces, Dinamarca está dando un paso importante en la lucha contra el abuso de la IA. Pero la legislación por sí sola no es suficiente. Las personas deben aprender a reconocer las señales de los deepfakes. Además de los gobiernos, las instituciones educativas y las empresas tecnológicas también deben invertir en resiliencia digital.»
La naturaleza del problema es muy individual y afecta a la identidad personal. Tecnologías como los deepfakes ahora pueden replicar de forma creíble rasgos distintivos como la voz y el rostro, que son tan únicos como las huellas dactilares.
En ausencia de medidas de seguridad adecuadas, existe el riesgo de que cualquiera pueda ser objeto de suplantaciones de identidad digitales con fines fraudulentos, por ejemplo, mediante llamadas telefónicas falsas atribuidas al director ejecutivo para defraudar a empresas, o mediante la difusión de mensajes políticos falsos. La legislación danesa reconoce este riesgo al tratar la voz y la apariencia facial como propiedad personal, legalmente protegidas contra la explotación. Este es un límite legal indispensable en un panorama en rápida evolución, donde el contenido generado por IA se está volviendo casi indistinguible de las grabaciones auténticas.
Según Collard, la legislación, si bien crucial, es solo una parte de la solución. De hecho, las tecnologías para detectar falsificaciones aún están en desarrollo, y no todos tienen los recursos o las habilidades para reconocer el contenido falsificado. En consecuencia, a medida que los deepfakes se vuelven más accesibles y creíbles, el público tendrá que asumir la responsabilidad de distinguir entre realidad y ficción.
Por eso, la educación es tan crucial como la regulación. Las campañas de concienciación, los programas de alfabetización digital en las escuelas y las sesiones de capacitación en el lugar de trabajo desempeñan un papel clave en el desarrollo de la resiliencia, continuó. «Se trata de enseñar a las personas a reconocer el engaño narrativo y desarrollar la capacidad de reconocer la manipulación cuando ocurre.»
En última instancia, la lucha contra los deepfakes (al igual que la lucha contra el phishing, que se ha perdido en gran medida) requerirá un enfoque multifacético. Los gobiernos deben definir marcos legales, las empresas tecnológicas deben desarrollar herramientas de detección más eficaces y priorizar el desarrollo responsable de la inteligencia artificial, y los ciudadanos deben estar capacitados para navegar en un mundo digital donde ver ya no significa necesariamente creer.
Dinamarca ha dado un primer paso audaz. Ahora veamos si Europa seguirá el ejemplo, complementando las protecciones legales con las herramientas, la formación y la concienciación necesarias para defenderse de este engaño digital.
A partir del viernes, los adultos en el Reino Unido que intenten acceder a pornografía deberán demostrar que son mayores de 18 años, según algunas de las regulaciones más estr...
Durante una operación internacional coordinada denominada Operación Jaque Mate, las fuerzas del orden asestaron un duro golpe al grupo de ransomware BlackSuit (enlace onion aquí), que h...
¿Cuántas veces hemos escuchado el acrónimo CISO? Pero ¿cuántos desconocemos su significado exacto o tenemos poco conocimiento profundo de la función de un Director de Seg...
Imagina abrir tu foro favorito, como cada noche, y encontrar nuevas variantes de robo de credenciales o un nuevo lote de credenciales vulneradas. En lugar del tablón de anuncios habitual, aparece...
AIOps (Inteligencia Artificial para Operaciones de TI) es la aplicación de la inteligencia artificial, como el aprendizaje automático, el procesamiento del lenguaje natural y la analíti...
Para más información: [email protected]