OpenAI refuerza los controles sobre el contenido generado por IA de Sora

16

OpenAI está ajustando rápidamente su nueva plataforma de generación de videos, Sora, en respuesta tanto a la presión legal como a las preocupaciones de los usuarios sobre los derechos de autor y el uso indebido de imágenes. Apenas unos días después de su lanzamiento solo por invitación, la compañía está implementando nuevas funciones diseñadas para brindar a los usuarios más control sobre cómo se usan sus imágenes y voces en videos creados por IA. Esta medida se produce en medio de un creciente escrutinio por parte de la industria del entretenimiento y de expertos legales, que cuestionan si el enfoque inicial de OpenAI ante la infracción de derechos de autor fue sostenible.

El cameo y la controversia inicial

La característica destacada de Sora, “cameo”, permite a los usuarios subir videos de ellos mismos para incluirlos en escenas generadas por IA. Esto despertó un interés inmediato, y los primeros usuarios crearon deepfakes realistas, incluido uno del CEO de OpenAI, Sam Altman, que hizo afirmaciones falsas sobre modelos de IA rivales. Si bien fue entretenida, la función planteó preguntas críticas sobre el consentimiento, los derechos de autor y la posibilidad de información errónea. Inicialmente, OpenAI exigía que los titulares de derechos de autor (como los estudios cinematográficos) optaran por no que su propiedad intelectual se utilizara para la formación en IA, una postura que los expertos legales rápidamente descartaron por considerarla poco práctica.

“Los derechos de autor se atribuyen a las obras en el momento de su creación”, explica Robert Rosenberg, abogado de propiedad intelectual de Moses and Singer LLP. “Pedir a los creadores que se excluyeran de forma proactiva nunca fue un enfoque viable”. OpenAI rápidamente revirtió esta posición, reconociendo la necesidad de alinearse con la ley de derechos de autor establecida.

Nuevas restricciones y marcas de agua

La empresa ahora está introduciendo un control más granular. Los usuarios ahora pueden especificar palabras clave restringidas o escenarios en los que no se puede utilizar su imagen, como evitar comentarios políticos generados por IA que muestren su rostro y voz. Además, OpenAI está haciendo que la marca de agua en los videos creados por Sora sea más visible, con el objetivo de identificar claramente el contenido generado por IA.

Estos cambios son un paso hacia la mitigación de los riesgos legales. La cuestión central es equilibrar la naturaleza abierta de la plataforma con los derechos de los creadores de contenido. Las leyes existentes, como la Sección 230 de la Ley de Decencia en las Comunicaciones, protegen a las plataformas de redes sociales de la responsabilidad por el contenido generado por los usuarios. Sin embargo, gigantes del entretenimiento como Disney y Warner Bros. ya han comenzado a demandar a empresas de inteligencia artificial por permitir la reproducción no autorizada de personajes protegidos por derechos de autor.

El panorama jurídico más amplio

OpenAI no es el único que enfrenta desafíos en materia de derechos de autor. El New York Times y otros editores han demandado a la empresa, alegando uso ilegal de contenido propietario en sus datos de entrenamiento de IA. Ziff Davis, la empresa matriz de CNET, también presentó una demanda contra OpenAI por motivos similares. Estas batallas legales resaltan la tensión fundamental entre la innovación en IA y los derechos de propiedad intelectual.

La pregunta ahora es si las nuevas medidas de OpenAI serán suficientes para satisfacer tanto a los creadores individuales como a las grandes empresas de entretenimiento. Según Rosenberg, “las plataformas están asumiendo más responsabilidades, pero aún está por verse si esta implementación cumplirá las expectativas”.

Estos ajustes son esenciales para el futuro del contenido generado por IA. El debate actual sobre los derechos de autor en IA no es meramente legal; define los límites de la libertad creativa y la innovación en la era digital.