Redazione RHC : 17 septiembre 2025 19:06
OpenAI ha anunciado nuevas medidas de seguridad para ChatGPT tras una serie de trágicas historias y demandas que acusan al chatbot de estar involucrado en suicidios de adolescentes. El sistema ahora intentará determinar la edad de la persona con la que chatea y, si es necesario, solicitará su identificación para confirmar que el usuario es mayor de 18 años. La compañía reconoció que esto limita la privacidad de los adultos, pero consideró que la compensación estaba justificada por razones de seguridad.
El director ejecutivo de OpenAI, Sam Altman, afirmó que no esperaba una aprobación unánime para estas medidas, pero las consideró necesarias en medio del creciente conflicto sobre la regulación de la inteligencia artificial. Esta decisión se vio influenciada por una serie de incidentes de alto perfil.
En agosto, los padres de un adolescente llamado Adam Reid presentaron una demanda, alegando que ChatGPT lo ayudó a escribir una nota de suicidio, le aconsejó métodos alternativos y lo disuadió de compartir sus sentimientos con adultos. Ese mismo mes, el Wall Street Journal informó sobre un hombre de 56 años que se suicidó tras comunicarse con un bot que alimentó su paranoia. El Washington Post informó sobre una nueva demanda en la que los padres culparon al servicio Character AI de la muerte de una niña de 13 años. OpenAI implementó previamente controles parentales en ChatGPT, pero ahora ha endurecido las normas. Para los menores, el chatbot funcionará según principios diferentes: rechazará los coqueteos y excluirá las conversaciones sobre suicidio y autolesiones, incluso en contextos artísticos. Si el sistema detecta pensamientos peligrosos en un adolescente, intentará contactar a sus padres; si esto resulta imposible y pone en peligro su vida, contactará con los servicios de emergencia. OpenAI reconoció que se enfrentaba a un problema fundamental con los modelos de lenguaje grandes. En sus inicios, ChatGPT era estricto y rechazaba muchos temas, pero la creciente competencia de soluciones locales y sin censura, así como la presión de los críticos de la censura, obligaron a la empresa a flexibilizar sus filtros.
Ahora, la empresa ha cambiado de rumbo: quiere ofrecer a los usuarios adultos la máxima libertad sin perjudicar ni restringir los derechos de otros. Otras plataformas están tomando medidas similares: este verano, YouTube anunció planes para utilizar algoritmos de aprendizaje automático para estimar la edad de los espectadores y proteger a los adolescentes de ciertas categorías de contenido.
La Agencia de Seguridad de Infraestructura y Ciberseguridad de Estados Unidos (CISA) ha añadido una vulnerabilidad crítica en la popular utilidad Sudo, utilizada en sistemas Linux y similares a Unix...
El Departamento de Justicia de EE. UU. recibió autorización judicial para realizar una inspección remota de los servidores de Telegram como parte de una investigación sobre explotación infantil. ...
Importantes agencias de todo el mundo han alertado sobre una amenaza crítica a la infraestructura de red: vulnerabilidades en los dispositivos Cisco Adaptive Security Appliance (ASA) y Firepower han ...
Recientemente, se descubrió una campaña de malvertising dirigida a usuarios empresariales que intentaban descargar Microsoft Teams . A primera vista, el ataque parece trivial: un anuncio patrocinado...
El 27 de septiembre de 2025 surgieron nuevas preocupaciones sobre los robots producidos por Unitree Robotics de China, luego de que se informaran graves vulnerabilidades que podrían exponer miles de ...