
Redazione RHC : 24 septiembre 2025 07:12
Los investigadores de Google DeepMind han publicado una versión actualizada de su marco de evaluación de riesgos de IA, Frontier Safety Framework 3.0 . Este documento examina cómo los modelos generativos pueden descontrolarse y representar una amenaza . Considera escenarios en los que la IA ignora los intentos de los usuarios por detenerla.
El enfoque de DeepMind se basa en los llamados «Niveles de Capacidad Crítica» (CCL) . Se trata de una escala para evaluar el punto en el que el comportamiento de un modelo se vuelve peligroso, por ejemplo, en ciberseguridad o biotecnología.
El documento describe los pasos que deben seguir los desarrolladores cuando sus sistemas alcanzan un determinado nivel de riesgo.
Los investigadores citan el potencial del modelo para la pérdida de peso como una amenaza importante. Si estas pérdidas caen en manos de actores maliciosos, podrían desactivar las limitaciones integradas y usar la IA para crear malware o incluso desarrollar armas biológicas . Otro riesgo es el comportamiento manipulador.
DeepMind advierte que los chatbots podrían influir en la visión del mundo de las personas, aunque señala que se trata de una «amenaza de baja velocidad» que la empresa está abordando actualmente con sus propios mecanismos de defensa.
Se presta especial atención a la «IA descoordinada», es decir, a sistemas que empiezan a ignorar instrucciones o a actuar en contra de los intereses humanos. Ya se han registrado casos de modelos engañosos o tercos.
En el futuro, estos sistemas podrían desarrollar un razonamiento simulado eficaz, pero sin pasos intermedios verificables. Esto significa que la monitorización de sus procesos será prácticamente imposible.
Actualmente no existen propuestas para una solución definitiva a este problema. DeepMind solo recomienda el uso de la monitorización automatizada para analizar los resultados intermedios del modelo e identificar cualquier indicio de inconsistencia.
Sin embargo, los propios investigadores reconocen que aún se sabe muy poco sobre cómo las IA modernas llegan a sus respuestas y que la amenaza podría intensificarse en los próximos años.
Redazione
La primera computadora cuántica atómica de China ha alcanzado un importante hito comercial al registrar sus primeras ventas a clientes nacionales e internacionales, según medios estatales. El Hubei...

El director ejecutivo de NVIDIA, Jen-Hsun Huang, supervisa directamente a 36 empleados en siete áreas clave: estrategia, hardware, software, inteligencia artificial, relaciones públicas, redes y asi...

OpenAI ha presentado Aardvark, un asistente autónomo basado en el modelo GPT-5 , diseñado para encontrar y corregir automáticamente vulnerabilidades en el código de software. Esta herramienta de I...

Hoy en día, muchos se preguntan qué impacto tendrá la expansión de la Inteligencia Artificial en nuestra sociedad. Entre las mayores preocupaciones se encuentra la pérdida de millones de empleos ...

Análisis de RHC de la red “BHS Links” y la infraestructura global automatizada de SEO Black Hat. Un análisis interno de Red Hot Cyber sobre su dominio ha descubierto una red global de SEO Black ...