Redazione RHC : 4 julio 2025 13:55
Investigadores de la Universidad de Carolina del Norte han desarrollado un nuevo método para engañar a los sistemas de IA que analizan imágenes. El método, llamado RisingAttacK, puede engañar a la IA para que no vea objetos claramente presentes en una fotografía. La esencia de la tecnología reside en los cambios en la imagen imperceptibles para el ojo humano. Dos imágenes pueden parecer perfectamente idénticas, pero la IA solo verá el coche en una de las dos y no en la segunda. Al mismo tiempo, una persona verá fácilmente el coche en ambas fotos.
Este tipo de ataques podrían suponer graves riesgos de seguridad en áreas donde se utilizan sistemas de visión artificial. Por ejemplo, los atacantes podrían impedir que un coche autónomo reconozca semáforos, peatones u otros vehículos en la carretera. Estas influencias en el ámbito médico no son menos peligrosas. Los hackers pueden inyectar código en una máquina de rayos X, lo que podría provocar diagnósticos inexactos por parte de un sistema de IA. Las tecnologías de seguridad basadas en el reconocimiento automático de patrones también están en riesgo. RisingAttacK funciona en varias etapas. Primero, el programa identifica todas las características visuales de la imagen y luego determina cuáles son las más importantes para lograr el objetivo del ataque. Esto requiere potencia de procesamiento, pero permite realizar cambios muy precisos y mínimos. «Queríamos encontrar una forma eficaz de hackear los sistemas de visión artificial, ya que se utilizan a menudo en contextos que pueden afectar la salud y la seguridad de las personas», explica Tianfu Wu, uno de los autores del estudio. Los desarrolladores probaron su método con cuatro de los programas de visión artificial más comunes: ResNet-50, DenseNet-121, ViTB y DEiT-B. La tecnología demostró su eficacia en todos los sistemas, sin excepción. Los investigadores enfatizan la importancia de identificar estas vulnerabilidades. Solo conociendo la existencia de una amenaza se puede desarrollar una protección fiable contra ella. Por lo tanto, el equipo ya está trabajando en la creación de métodos para contrarrestar dichos ataques.
Los investigadores ahora están explorando la posibilidad de usar RisingAttacK contra otros tipos de sistemas de IA, incluyendo modelos de lenguaje extensos, para comprender el alcance completo de las amenazas potenciales.
La Dark Web es una parte de internet a la que no se puede acceder con navegadores estándar (Chrome, Firefox, Edge). Para acceder a ella, se necesitan herramientas específicas como el navegador Tor, ...
El equipo de Darklab, la comunidad de expertos en inteligencia de amenazas de Red Hot Cyber, ha identificado un anuncio en el mercado de la dark web «Tor Amazon», la contraparte criminal del popular...
La Conferencia Red Hot Cyber se ha convertido en un evento habitual para la comunidad Red Hot Cyber y para cualquier persona que trabaje o esté interesada en el mundo de las tecnologías digitales y ...
El lanzamiento de Hexstrike-AI marca un punto de inflexión en el panorama de la ciberseguridad. El framework, considerado una herramienta de última generación para equipos rojos e investigadores, e...
LockBit representa una de las bandas de ransomware más longevas y mejor estructuradas de los últimos años, con un modelo de ransomware como servicio (RaaS) que ha impactado profundamente el ecosist...