Redazione RHC : 4 julio 2025 13:55
Investigadores de la Universidad de Carolina del Norte han desarrollado un nuevo método para engañar a los sistemas de IA que analizan imágenes. El método, llamado RisingAttacK, puede engañar a la IA para que no vea objetos claramente presentes en una fotografía. La esencia de la tecnología reside en los cambios en la imagen imperceptibles para el ojo humano. Dos imágenes pueden parecer perfectamente idénticas, pero la IA solo verá el coche en una de las dos y no en la segunda. Al mismo tiempo, una persona verá fácilmente el coche en ambas fotos.
Este tipo de ataques podrían suponer graves riesgos de seguridad en áreas donde se utilizan sistemas de visión artificial. Por ejemplo, los atacantes podrían impedir que un coche autónomo reconozca semáforos, peatones u otros vehículos en la carretera. Estas influencias en el ámbito médico no son menos peligrosas. Los hackers pueden inyectar código en una máquina de rayos X, lo que podría provocar diagnósticos inexactos por parte de un sistema de IA. Las tecnologías de seguridad basadas en el reconocimiento automático de patrones también están en riesgo. RisingAttacK funciona en varias etapas. Primero, el programa identifica todas las características visuales de la imagen y luego determina cuáles son las más importantes para lograr el objetivo del ataque. Esto requiere potencia de procesamiento, pero permite realizar cambios muy precisos y mínimos. «Queríamos encontrar una forma eficaz de hackear los sistemas de visión artificial, ya que se utilizan a menudo en contextos que pueden afectar la salud y la seguridad de las personas», explica Tianfu Wu, uno de los autores del estudio. Los desarrolladores probaron su método con cuatro de los programas de visión artificial más comunes: ResNet-50, DenseNet-121, ViTB y DEiT-B. La tecnología demostró su eficacia en todos los sistemas, sin excepción. Los investigadores enfatizan la importancia de identificar estas vulnerabilidades. Solo conociendo la existencia de una amenaza se puede desarrollar una protección fiable contra ella. Por lo tanto, el equipo ya está trabajando en la creación de métodos para contrarrestar dichos ataques.
Los investigadores ahora están explorando la posibilidad de usar RisingAttacK contra otros tipos de sistemas de IA, incluyendo modelos de lenguaje extensos, para comprender el alcance completo de las amenazas potenciales.
La Agencia de Seguridad de Infraestructura y Ciberseguridad de Estados Unidos (CISA) ha añadido una vulnerabilidad crítica en la popular utilidad Sudo, utilizada en sistemas Linux y similares a Unix...
El Departamento de Justicia de EE. UU. recibió autorización judicial para realizar una inspección remota de los servidores de Telegram como parte de una investigación sobre explotación infantil. ...
Importantes agencias de todo el mundo han alertado sobre una amenaza crítica a la infraestructura de red: vulnerabilidades en los dispositivos Cisco Adaptive Security Appliance (ASA) y Firepower han ...
Recientemente, se descubrió una campaña de malvertising dirigida a usuarios empresariales que intentaban descargar Microsoft Teams . A primera vista, el ataque parece trivial: un anuncio patrocinado...
El 27 de septiembre de 2025 surgieron nuevas preocupaciones sobre los robots producidos por Unitree Robotics de China, luego de que se informaran graves vulnerabilidades que podrían exponer miles de ...