Redazione RHC : 22 octubre 2025 08:06
La continua generación de vídeos musicales con actores famosos publicados sin su consentimiento en la plataforma Sora 2 ha llamado la atención una vez más sobre los problemas asociados con el uso de redes neuronales para crear copias digitales de personas .
Después de que el servicio de OpenAI publicara videos generados por Bryan Cranston , incluido uno con Michael Jackson, la compañía anunció que reforzaría los controles sobre el uso de imágenes y voces de celebridades.
El propio Cranston, el sindicato de actores SAG-AFTRA y varias agencias importantes ( United Talent Agency, Creative Artists Agency y la Asociación de Agentes de Talentos ) emitieron un comunicado conjunto . Enfatizaron que OpenAI reconoció la generación no deseada y expresó su pesar. En respuesta a las críticas, la compañía reafirmó su compromiso con el principio de participación voluntaria en la creación de copias digitales: ningún artista o intérprete debe aparecer en dichos videos sin permiso previo . También prometió responder con prontitud a las quejas sobre infracciones de esta política.
Si bien OpenAI no reveló los detalles de los cambios realizados en la aplicación Sora, el anuncio en sí mismo representó un paso importante en el reconocimiento público del problema.
La plataforma ya había generado una ola de críticas tras publicar videos con imágenes distorsionadas de celebridades. Tras estos incidentes, la compañía revocó su política predeterminada anterior y prometió brindar a los titulares de derechos de autor un control más preciso sobre la generación de contenido, más cercano a los principios del consentimiento voluntario para el uso de imágenes.
Mientras Cranston destacó la respuesta positiva de OpenAI y la calificó como un importante ejemplo de fomento del diálogo , el presidente de SAG-AFTRA, Sean Astin, solicitó medidas legislativas. Enfatizó la necesidad de un instrumento legal capaz de proteger a los profesionales creativos de la copia no autorizada a gran escala mediante inteligencia artificial . En este contexto, mencionó el proyecto de ley NO FAKES (Ley para Fomentar los Originales, Fomentar el Arte y Mantener el Entretenimiento Seguro), actualmente en debate en Estados Unidos, que busca proteger contra la replicación digital sin el permiso del artista original.
En el contexto de la rápida difusión de modelos generativos y su integración en plataformas mediáticas populares, estos incidentes plantean una pregunta urgente: ¿cuáles son los límites de lo aceptable cuando las tecnologías pueden recrear los rostros y las voces de las personas con una fidelidad casi perfecta ?
Mientras las empresas prometen reforzar los filtros y mejorar la supervisión, la comunidad profesional sigue insistiendo en garantías institucionales, incluso a nivel legislativo.
OpenAI ha lanzado el navegador ChatGPT Atlas para macOS. Integra inteligencia artificial directamente en la interfaz y permite realizar tareas en páginas web sin tener que cambiar de pestaña. Atlas ...
El investigador de seguridad Alessandro Sgreccia , miembro del equipo HackerHood de Red Hot Cyber, ha informado de dos nuevas vulnerabilidades en Zyxel que afectan a varios dispositivos de la familia ...
La Agencia de Seguridad Cibernética y de Infraestructura (CISA) y el Centro de Análisis e Intercambio de Información Multiestatal (MS-ISAC) están emitiendo este Aviso Conjunto de Ciberseguridad (C...
El 20 de octubre de 2025 marca un aniversario significativo en la historia de la informática: el procesador Intel 80386 , también conocido como i386 , celebra su 40.º aniversario . ¡Y es un cumple...
Investigadores de VUSec han presentado un artículo titulado «Entrenamiento en solitario», que cuestiona los principios fundamentales de la protección contra ataques Spectre-v2 . Anteriormente , se...