Redazione RHC : 4 julio 2025 13:55
Investigadores de la Universidad de Carolina del Norte han desarrollado un nuevo método para engañar a los sistemas de IA que analizan imágenes. El método, llamado RisingAttacK, puede engañar a la IA para que no vea objetos claramente presentes en una fotografía. La esencia de la tecnología reside en los cambios en la imagen imperceptibles para el ojo humano. Dos imágenes pueden parecer perfectamente idénticas, pero la IA solo verá el coche en una de las dos y no en la segunda. Al mismo tiempo, una persona verá fácilmente el coche en ambas fotos.
Este tipo de ataques podrían suponer graves riesgos de seguridad en áreas donde se utilizan sistemas de visión artificial. Por ejemplo, los atacantes podrían impedir que un coche autónomo reconozca semáforos, peatones u otros vehículos en la carretera. Estas influencias en el ámbito médico no son menos peligrosas. Los hackers pueden inyectar código en una máquina de rayos X, lo que podría provocar diagnósticos inexactos por parte de un sistema de IA. Las tecnologías de seguridad basadas en el reconocimiento automático de patrones también están en riesgo. RisingAttacK funciona en varias etapas. Primero, el programa identifica todas las características visuales de la imagen y luego determina cuáles son las más importantes para lograr el objetivo del ataque. Esto requiere potencia de procesamiento, pero permite realizar cambios muy precisos y mínimos. «Queríamos encontrar una forma eficaz de hackear los sistemas de visión artificial, ya que se utilizan a menudo en contextos que pueden afectar la salud y la seguridad de las personas», explica Tianfu Wu, uno de los autores del estudio. Los desarrolladores probaron su método con cuatro de los programas de visión artificial más comunes: ResNet-50, DenseNet-121, ViTB y DEiT-B. La tecnología demostró su eficacia en todos los sistemas, sin excepción. Los investigadores enfatizan la importancia de identificar estas vulnerabilidades. Solo conociendo la existencia de una amenaza se puede desarrollar una protección fiable contra ella. Por lo tanto, el equipo ya está trabajando en la creación de métodos para contrarrestar dichos ataques.
Los investigadores ahora están explorando la posibilidad de usar RisingAttacK contra otros tipos de sistemas de IA, incluyendo modelos de lenguaje extensos, para comprender el alcance completo de las amenazas potenciales.
A partir del viernes, los adultos en el Reino Unido que intenten acceder a pornografía deberán demostrar que son mayores de 18 años, según algunas de las regulaciones más estr...
Durante una operación internacional coordinada denominada Operación Jaque Mate, las fuerzas del orden asestaron un duro golpe al grupo de ransomware BlackSuit (enlace onion aquí), que h...
¿Cuántas veces hemos escuchado el acrónimo CISO? Pero ¿cuántos desconocemos su significado exacto o tenemos poco conocimiento profundo de la función de un Director de Seg...
Imagina abrir tu foro favorito, como cada noche, y encontrar nuevas variantes de robo de credenciales o un nuevo lote de credenciales vulneradas. En lugar del tablón de anuncios habitual, aparece...
AIOps (Inteligencia Artificial para Operaciones de TI) es la aplicación de la inteligencia artificial, como el aprendizaje automático, el procesamiento del lenguaje natural y la analíti...
Para más información: [email protected]