
Redazione RHC : 25 septiembre 2025 07:05
La inteligencia artificial se describe cada vez más como un arma de doble filo, capaz de ofrecer enormes ventajas, pero también de abrir nuevas vías para la delincuencia digital. Durante la conferencia «TRUST AICS – 2025» en Hyderabad , expertos en ciberseguridad y derecho destacaron cómo los estafadores utilizan cada vez más esta misma tecnología que mejora las defensas y la innovación para orquestar fraudes sofisticados, difíciles de detectar con herramientas tradicionales.
La gravedad del fenómeno quedó subrayada por datos de la Oficina de Ciberseguridad de Telangana : se reciben casi 250 denuncias de ciberdelincuencia cada día, lo que resulta en pérdidas económicas de aproximadamente 60 millones de euros. Esta frecuencia demuestra que el abuso de la IA ya es una emergencia real, ya no un riesgo teórico, con consecuencias que afectan a ciudadanos, empresas e instituciones.
A pesar de los riesgos, la inteligencia artificial sigue siendo un aliado indispensable para la seguridad. Las empresas y organizaciones invierten cada vez más en herramientas de gobernanza basadas en algoritmos inteligentes. Según expertos del sector, los sistemas de monitorización mejorados con IA pueden detectar indicios de incumplimiento en tiempo real y prevenir incidentes antes de que se vuelvan perjudiciales.
En el centro de los debates se encuentran los modelos lingüísticos a gran escala, que actualmente son fundamentales para el desarrollo de la IA . Ofrecen enormes posibilidades, pero también plantean desafíos cruciales en materia de gestión de datos, localización, protección de la privacidad y acceso equitativo . Sin una atención específica a estos aspectos, la tecnología corre el riesgo de amplificar las desigualdades y las vulnerabilidades.
Varios oradores destacaron la necesidad de una responsabilidad compartida. Los desarrolladores deben garantizar la diversidad y la calidad de los datos de entrenamiento, las organizaciones que adoptan soluciones deben supervisar los posibles sesgos y la imparcialidad, y los organismos reguladores deben proporcionar directrices claras e imponer estándares para el uso seguro y ético de la IA.
Finalmente, la cuestión de la responsabilidad legal surgió con fuerza. El marco regulatorio actual, según los expertos legales que participaron en el debate, parece inadecuado para abordar los daños causados por las herramientas de inteligencia artificial.
Es fundamental definir claramente quién es responsable en caso de fraude o abuso: desarrolladores, empresas usuarias o proveedores de modelos. Solo con reglas claras y compartidas será posible aprovechar al máximo el potencial de la IA sin exponer a ciudadanos y empresas a riesgos incontrolados.
Redazione
Imagina una ciudad futurista dividida en dos: por un lado, relucientes torres de innovación; por el otro, el caos y las sombras de la pérdida de control. Esta no es una visión distópica, sino el p...

Había una vez un pueblo con un Bosque Mágico. Sus habitantes se sentían orgullosos de tenerlo, incluso un poco orgullosos. Por eso, todos sacrificaban gustosamente algunas pequeñas comodidades par...

Según informes, los servicios de inteligencia surcoreanos , incluido el Servicio Nacional de Inteligencia, creen que existe una alta probabilidad de que el presidente estadounidense Donald Trump cele...

En 2025, los usuarios siguen dependiendo en gran medida de contraseñas básicas para proteger sus cuentas. Un estudio de Comparitech, basado en un análisis de más de 2 mil millones de contraseñas ...

En unos años, Irlanda y Estados Unidos estarán conectados por un cable de comunicaciones submarino diseñado para ayudar a Amazon a mejorar sus servicios AWS . Los cables submarinos son una parte fu...