OpenAI reforça os controles sobre o conteúdo gerado por IA de Sora

22

A OpenAI está ajustando rapidamente sua nova plataforma de geração de vídeo, Sora, em resposta à pressão legal e às preocupações dos usuários sobre o uso indevido de direitos autorais e imagens. Poucos dias após seu lançamento somente para convidados, a empresa está lançando novos recursos projetados para dar aos usuários mais controle sobre como suas imagens e vozes são usadas em vídeos criados por IA. Esta mudança ocorre em meio ao crescente escrutínio da indústria do entretenimento e de especialistas jurídicos, que questionam se a abordagem inicial da OpenAI à violação de direitos autorais era sustentável.

O recurso Cameo e a controvérsia inicial

O recurso de destaque de Sora, “cameo”, permite que os usuários enviem vídeos de si mesmos para inclusão em cenas geradas por IA. Isso despertou interesse imediato, com os primeiros usuários criando deepfakes realistas, incluindo um do CEO da OpenAI, Sam Altman, fazendo afirmações falsas sobre modelos rivais de IA. Embora divertido, o recurso levantou questões críticas sobre consentimento, direitos autorais e o potencial de desinformação. A OpenAI inicialmente exigia que os detentores de direitos autorais (como estúdios de cinema) optassem por não ter sua propriedade intelectual usada para treinamento em IA – uma postura que os especialistas jurídicos rapidamente descartaram como impraticável.

“Os direitos autorais são atribuídos às obras no momento em que são criadas”, explica Robert Rosenberg, advogado de propriedade intelectual da Moses and Singer LLP. “Pedir aos criadores que desistissem proativamente nunca foi uma abordagem viável.” A OpenAI rapidamente reverteu esta posição, reconhecendo a necessidade de alinhamento com a lei de direitos autorais estabelecida.

Novas restrições e marcas d’água

A empresa agora está introduzindo um controle mais granular. Os usuários agora podem especificar palavras-chave restritas ou cenários onde sua imagem não pode ser usada, como evitar comentários políticos gerados por IA que apresentem seu rosto e voz. Além disso, a OpenAI está tornando mais visível a marca d’água nos vídeos criados por Sora, com o objetivo de identificar claramente o conteúdo gerado por IA.

Essas mudanças são um passo para mitigar os riscos legais. A questão central é equilibrar a natureza aberta da plataforma com os direitos dos criadores de conteúdo. As leis existentes, como a Secção 230 da Lei de Decência nas Comunicações, protegem as plataformas de redes sociais da responsabilidade pelo conteúdo gerado pelos utilizadores. No entanto, gigantes do entretenimento como Disney e Warner Bros. já começaram a processar empresas de IA por permitirem a reprodução não autorizada de personagens protegidos por direitos autorais.

O panorama jurídico mais amplo

A OpenAI não está sozinha no enfrentamento dos desafios de direitos autorais. O New York Times e outros editores processaram a empresa, alegando uso ilegal de conteúdo proprietário em seus dados de treinamento de IA. Ziff Davis, controladora da CNET, também entrou com uma ação judicial contra a OpenAI por motivos semelhantes. Estas batalhas jurídicas destacam a tensão fundamental entre a inovação da IA ​​e os direitos de propriedade intelectual.

A questão agora é se as novas medidas da OpenAI serão suficientes para satisfazer tanto os criadores individuais como as grandes empresas de entretenimento. De acordo com Rosenberg, “As plataformas estão assumindo mais responsabilidades, mas ainda não se sabe se esta implementação atenderá às expectativas”.

Esses ajustes são essenciais para o futuro do conteúdo gerado por IA. O debate em curso sobre os direitos de autor na IA não é meramente legal; define os limites da liberdade criativa e da inovação na era digital.