Redazione RHC : 4 julio 2025 13:55
Investigadores de la Universidad de Carolina del Norte han desarrollado un nuevo método para engañar a los sistemas de IA que analizan imágenes. El método, llamado RisingAttacK, puede engañar a la IA para que no vea objetos claramente presentes en una fotografía. La esencia de la tecnología reside en los cambios en la imagen imperceptibles para el ojo humano. Dos imágenes pueden parecer perfectamente idénticas, pero la IA solo verá el coche en una de las dos y no en la segunda. Al mismo tiempo, una persona verá fácilmente el coche en ambas fotos.
Este tipo de ataques podrían suponer graves riesgos de seguridad en áreas donde se utilizan sistemas de visión artificial. Por ejemplo, los atacantes podrían impedir que un coche autónomo reconozca semáforos, peatones u otros vehículos en la carretera. Estas influencias en el ámbito médico no son menos peligrosas. Los hackers pueden inyectar código en una máquina de rayos X, lo que podría provocar diagnósticos inexactos por parte de un sistema de IA. Las tecnologías de seguridad basadas en el reconocimiento automático de patrones también están en riesgo. RisingAttacK funciona en varias etapas. Primero, el programa identifica todas las características visuales de la imagen y luego determina cuáles son las más importantes para lograr el objetivo del ataque. Esto requiere potencia de procesamiento, pero permite realizar cambios muy precisos y mínimos. «Queríamos encontrar una forma eficaz de hackear los sistemas de visión artificial, ya que se utilizan a menudo en contextos que pueden afectar la salud y la seguridad de las personas», explica Tianfu Wu, uno de los autores del estudio. Los desarrolladores probaron su método con cuatro de los programas de visión artificial más comunes: ResNet-50, DenseNet-121, ViTB y DEiT-B. La tecnología demostró su eficacia en todos los sistemas, sin excepción. Los investigadores enfatizan la importancia de identificar estas vulnerabilidades. Solo conociendo la existencia de una amenaza se puede desarrollar una protección fiable contra ella. Por lo tanto, el equipo ya está trabajando en la creación de métodos para contrarrestar dichos ataques.
Los investigadores ahora están explorando la posibilidad de usar RisingAttacK contra otros tipos de sistemas de IA, incluyendo modelos de lenguaje extensos, para comprender el alcance completo de las amenazas potenciales.
Las autoridades españolas investigan a un hacker que filtró información sensible sobre funcionarios públicos y figuras políticas. Los datos publicados incluyen el supuesto n&#...
La primera edición de la Olimpiada Internacional de Ciberseguridad finalizó en Singapur con un excelente resultado para Italia. Cuatro estudiantes italianos subieron al podio, ganando medall...
Se ha descubierto un ejemplo inusual de código malicioso en un entorno informático real. Por primera vez, se registró un intento de atacar no los mecanismos de defensa clásicos, si...
Investigadores de la Universidad de Carolina del Norte han desarrollado un nuevo método para engañar a los sistemas de IA que analizan imágenes. El método, llamado RisingAttacK, pu...
Desde principios de 2025, los expertos en seguridad han observado un drástico aumento de ciberataques a nivel mundial, con más de 125.000 intentos de explotación en más de 70 pa&#x...
Para más información: [email protected]