Redazione RHC : 25 septiembre 2025 07:05
La inteligencia artificial se describe cada vez más como un arma de doble filo, capaz de ofrecer enormes ventajas, pero también de abrir nuevas vías para la delincuencia digital. Durante la conferencia «TRUST AICS – 2025» en Hyderabad , expertos en ciberseguridad y derecho destacaron cómo los estafadores utilizan cada vez más esta misma tecnología que mejora las defensas y la innovación para orquestar fraudes sofisticados, difíciles de detectar con herramientas tradicionales.
La gravedad del fenómeno quedó subrayada por datos de la Oficina de Ciberseguridad de Telangana : se reciben casi 250 denuncias de ciberdelincuencia cada día, lo que resulta en pérdidas económicas de aproximadamente 60 millones de euros. Esta frecuencia demuestra que el abuso de la IA ya es una emergencia real, ya no un riesgo teórico, con consecuencias que afectan a ciudadanos, empresas e instituciones.
A pesar de los riesgos, la inteligencia artificial sigue siendo un aliado indispensable para la seguridad. Las empresas y organizaciones invierten cada vez más en herramientas de gobernanza basadas en algoritmos inteligentes. Según expertos del sector, los sistemas de monitorización mejorados con IA pueden detectar indicios de incumplimiento en tiempo real y prevenir incidentes antes de que se vuelvan perjudiciales.
En el centro de los debates se encuentran los modelos lingüísticos a gran escala, que actualmente son fundamentales para el desarrollo de la IA . Ofrecen enormes posibilidades, pero también plantean desafíos cruciales en materia de gestión de datos, localización, protección de la privacidad y acceso equitativo . Sin una atención específica a estos aspectos, la tecnología corre el riesgo de amplificar las desigualdades y las vulnerabilidades.
Varios oradores destacaron la necesidad de una responsabilidad compartida. Los desarrolladores deben garantizar la diversidad y la calidad de los datos de entrenamiento, las organizaciones que adoptan soluciones deben supervisar los posibles sesgos y la imparcialidad, y los organismos reguladores deben proporcionar directrices claras e imponer estándares para el uso seguro y ético de la IA.
Finalmente, la cuestión de la responsabilidad legal surgió con fuerza. El marco regulatorio actual, según los expertos legales que participaron en el debate, parece inadecuado para abordar los daños causados por las herramientas de inteligencia artificial.
Es fundamental definir claramente quién es responsable en caso de fraude o abuso: desarrolladores, empresas usuarias o proveedores de modelos. Solo con reglas claras y compartidas será posible aprovechar al máximo el potencial de la IA sin exponer a ciudadanos y empresas a riesgos incontrolados.
Investigadores de VUSec han presentado un artículo titulado «Entrenamiento en solitario», que cuestiona los principios fundamentales de la protección contra ataques Spectre-v2 . Anteriormente , se...
El 20 de septiembre, informamos sobre un ciberataque que paralizó varios aeropuertos europeos, incluidos los de Bruselas, Berlín y Londres-Heathrow. Se trató de un ataque a la cadena de suministro ...
El sistema penitenciario rumano se ha visto envuelto en un grave escándalo digital: reclusos de Târgu Jiu piratearon la plataforma interna de la ANP y, durante varios meses, gestionaron sin ser dete...
Hoy en día, vivimos en un mundo donde el wifi es una necesidad fundamental, pero ¿cómo surgió esta tecnología, que ahora damos por sentada? ¿Cómo se convirtió en la red que usamos a diario? En...
El 10 de octubre de 2025, las autoridades letonas llevaron a cabo una jornada de acción que resultó en la detención de cinco ciudadanos letones sospechosos de dirigir una red de ciberfraude a gran ...