Redazione RHC : 25 septiembre 2025 07:05
La inteligencia artificial se describe cada vez más como un arma de doble filo, capaz de ofrecer enormes ventajas, pero también de abrir nuevas vías para la delincuencia digital. Durante la conferencia «TRUST AICS – 2025» en Hyderabad , expertos en ciberseguridad y derecho destacaron cómo los estafadores utilizan cada vez más esta misma tecnología que mejora las defensas y la innovación para orquestar fraudes sofisticados, difíciles de detectar con herramientas tradicionales.
La gravedad del fenómeno quedó subrayada por datos de la Oficina de Ciberseguridad de Telangana : se reciben casi 250 denuncias de ciberdelincuencia cada día, lo que resulta en pérdidas económicas de aproximadamente 60 millones de euros. Esta frecuencia demuestra que el abuso de la IA ya es una emergencia real, ya no un riesgo teórico, con consecuencias que afectan a ciudadanos, empresas e instituciones.
A pesar de los riesgos, la inteligencia artificial sigue siendo un aliado indispensable para la seguridad. Las empresas y organizaciones invierten cada vez más en herramientas de gobernanza basadas en algoritmos inteligentes. Según expertos del sector, los sistemas de monitorización mejorados con IA pueden detectar indicios de incumplimiento en tiempo real y prevenir incidentes antes de que se vuelvan perjudiciales.
En el centro de los debates se encuentran los modelos lingüísticos a gran escala, que actualmente son fundamentales para el desarrollo de la IA . Ofrecen enormes posibilidades, pero también plantean desafíos cruciales en materia de gestión de datos, localización, protección de la privacidad y acceso equitativo . Sin una atención específica a estos aspectos, la tecnología corre el riesgo de amplificar las desigualdades y las vulnerabilidades.
Varios oradores destacaron la necesidad de una responsabilidad compartida. Los desarrolladores deben garantizar la diversidad y la calidad de los datos de entrenamiento, las organizaciones que adoptan soluciones deben supervisar los posibles sesgos y la imparcialidad, y los organismos reguladores deben proporcionar directrices claras e imponer estándares para el uso seguro y ético de la IA.
Finalmente, la cuestión de la responsabilidad legal surgió con fuerza. El marco regulatorio actual, según los expertos legales que participaron en el debate, parece inadecuado para abordar los daños causados por las herramientas de inteligencia artificial.
Es fundamental definir claramente quién es responsable en caso de fraude o abuso: desarrolladores, empresas usuarias o proveedores de modelos. Solo con reglas claras y compartidas será posible aprovechar al máximo el potencial de la IA sin exponer a ciudadanos y empresas a riesgos incontrolados.
El Departamento de Justicia de Estados Unidos y la policía británica han acusado a Talha Jubair, de 19 años, residente del este de Londres, quien los investigadores creen que es un miembro clave de...
Una carta abierta firmada por importantes fundaciones de código abierto ha alertado sobre el futuro de la infraestructura que sustenta el desarrollo de software moderno. La Fundación de Seguridad de...
Cisco ha revelado una vulnerabilidad de día cero, identificada como CVE-2025-20352, en su software IOS e IOS XE, ampliamente utilizado. Esta vulnerabilidad parece estar siendo explotada activamente. ...
El 20 de septiembre de 2025, un ciberataque afectó a tres de los principales aeropuertos de Europa: Londres-Heathrow, Bruselas y Berlín. Los sistemas digitales que gestionaban la facturación y la g...
Trabajé como ingeniero de sistemas durante varios años y una de mis responsabilidades era administrar Citrix PVS. Uno de los problemas con PVS era el análisis de los archivos de volcado. La única ...