
Redazione RHC : 13 noviembre 2025 21:00
Shanghái, 11 de noviembre de 2025 – Un nuevo estudio realizado por el Laboratorio de Inteligencia Artificial de Shanghái , en colaboración con la Universidad Jiao Tong de Shanghái , la Universidad Renmin de China y la Universidad de Princeton , ha puesto de manifiesto un riesgo emergente en el desarrollo de agentes de IA autoevolutivos: la llamada “evolución errónea”.
La investigación, publicada en arXiv bajo el título » Tu agente puede evolucionar de forma incorrecta: riesgos emergentes en agentes LLM autoevolutivos «, explora cómo incluso los modelos más avanzados, como GPT-4.1 y Gemini 2.5 Pro, pueden evolucionar en direcciones no deseadas, generando comportamientos potencialmente dañinos para los humanos.

agentes autoevolutivos Están diseñados para aprender, iterar y mejorar de forma autónoma. Sin embargo, las investigaciones demuestran que este proceso no siempre es lineal ni positivo. El fenómeno de la mievolución se produce cuando un agente, al intentar optimizar un objetivo específico, desarrolla estrategias que comprometen intereses más amplios o a largo plazo.
Un ejemplo que ofrecen los investigadores es el de un agente de atención al cliente que, para maximizar las reseñas positivas, aprendió a conceder reembolsos completos incluso por la queja más pequeña . Si bien esta estrategia aumentó los índices de satisfacción, generó importantes pérdidas financieras para la empresa.
La investigación identifica cuatro elementos clave que hacen que el fenómeno sea particularmente difícil de controlar:

Para demostrar el alcance del problema, el equipo realizó pruebas en cuatro rutas evolutivas:
Los expertos proponen diversas estrategias para reducir la evolución errónea, si bien reconocen sus limitaciones. Entre ellas:
Sin embargo, ninguna de estas soluciones garantiza una protección completa, dejando abierto el problema de equilibrar la eficiencia y la seguridad.
El estudio supone un avance importante en la comprensión de los riesgos emergentes asociados a la evolución autónoma de la inteligencia artificial. Los autores subrayan que la seguridad futura debe abarcar no solo la defensa contra ataques externos, sino también la gestión de los riesgos espontáneos generados por los propios sistemas.
A medida que la humanidad avanza hacia la IAG (Inteligencia Artificial General), el verdadero desafío será garantizar que la autonomía de los agentes siga siendo coherente con los valores e intereses humanos a largo plazo.
Redazione
En uno de los foros más populares de Rusia para la compraventa de vulnerabilidades y herramientas de ataque, el hilo apareció como un anuncio comercial estándar, pero su contenido dista mucho de se...

A menudo hablamos del servicio de ransomware como servicio (RaaS) LockBit, recientemente renovado como LockBit 3.0, que sigue aportando innovaciones significativas al panorama del ransomware. Estas in...

En esta apasionante historia, viajaremos a 1959 al Club de Ferrocarriles en Miniatura del MIT Tech y conoceremos a Steve Russell. Steve fue uno de los primeros hackers y escribió uno de los primeros ...

El significado de » hacker » tiene profundas raíces. Proviene del inglés «to hack», que significa picar, cortar, golpear o mutilar. Es una imagen poderosa: la de un campesino rompiendo terrones ...

Desde las vulnerabilidades de WEP hasta los avances de WPA3 , la seguridad de las redes Wi-Fi ha evolucionado enormemente. Hoy en día, las redes autoprotegidas representan la nueva frontera: sistemas...