Redazione RHC : 21 septiembre 2025 10:02
Un equipo de la Universidad de California, Riverside, ha demostrado una nueva forma de eliminar datos privados y protegidos por derechos de autor de los modelos de IA sin acceder a los conjuntos de datos originales. La solución aborda el problema de la reproducción casi textual de contenido personal y de pago en las respuestas, incluso cuando las fuentes se eliminan o se bloquean con contraseñas y muros de pago.
El enfoque se denomina «desaprendizaje certificado sin fuente». Se utiliza un conjunto sustituto estadísticamente similar al original. Los parámetros del modelo se modifican como si se hubiera reentrenado desde cero. Se introduce ruido aleatorio cuidadosamente calculado para garantizar su cancelación. El método incorpora un novedoso mecanismo de calibración de ruido que compensa las discrepancias entre los datos originales y los sustitutos . El objetivo es eliminar la información seleccionada manteniendo el rendimiento en el material restante.
La demanda de esta tecnología está impulsada por los requisitos del RGPD y la CCPA, así como por las controversias en torno al entrenamiento con textos protegidos. Los modelos lingüísticos se entrenan en línea y, en ocasiones , producen fragmentos casi exactos de las fuentes, lo que les permite eludir el acceso de pago. Por otra parte, el New York Times presentó una demanda contra OpenAI y Microsoft por el uso de artículos para entrenar modelos GPT.
Los autores probaron el método en conjuntos de datos sintéticos y reales. El enfoque también es adecuado cuando los conjuntos de datos originales se pierden, están fragmentados o son legalmente inaccesibles.
El trabajo está diseñado actualmente para arquitecturas más simples, todavía ampliamente utilizadas, pero con un mayor desarrollo el mecanismo se puede escalar a sistemas más grandes como ChatGPT.
Los próximos pasos son adaptarla a modelos y datos más complejos, así como crear herramientas que la pongan a disposición de desarrolladores de todo el mundo. Esta tecnología es útil para medios de comunicación, organizaciones médicas y otros propietarios de información confidencial, y también ofrece a las personas la posibilidad de solicitar la eliminación de datos personales y confidenciales de la IA.
Cloudflare ha anunciado que gestionó de forma independiente un ataque de denegación de servicio distribuido (DDoS) sin precedentes, el más grande jamás visto. El ataque hipervolumétrico alcanzó ...
Los piratas informáticos apuntan cada vez más a las copias de seguridad: no a los sistemas o servidores, sino a los datos que las empresas conservan durante un período de tiempo limitado para poder...
Dos jóvenes involucrados en el grupo Araña Dispersa han sido acusados como parte de la investigación de la Agencia Nacional contra el Crimen sobre un ciberataque a Transport for London (TfL). El 31...
Ya habíamos debatido la propuesta de regulación «ChatControl» hace casi dos años, pero dada la hoja de ruta en curso, nos avergüenza tener que volver a debatirla. Parece un déjà vu, pero en lu...
En un drástico cambio de rumbo, Nepal ha levantado el bloqueo nacional de las redes sociales impuesto la semana pasada después de que provocara protestas masivas de jóvenes y causara al menos 19 mu...