La aplicación de vídeo con IA genera preocupación por los deepfakes y la democracia

7

Una nueva ola de aplicaciones de generación de videos impulsadas por inteligencia artificial está generando serias preocupaciones sobre la propagación de deepfakes, la privacidad en línea y los fundamentos mismos de la confianza en la información digital. Sora 2 de OpenAI, una aplicación popular que permite a los usuarios crear videos cortos a partir de mensajes de texto, ejemplifica estas ansiedades. Si bien aparentemente está diseñado para el entretenimiento (piense en el rap de la reina Isabel o en las imágenes cómicas de la cámara del timbre), el potencial de uso indebido de Sora 2 alarma a los expertos y a los grupos de defensa.

El atractivo de Sora 2 reside en su sencillez. Los usuarios escriben cualquier escenario que imaginen y la IA genera un vídeo corto. Sin embargo, esta facilidad de uso alimenta el temor de que actores malintencionados puedan aprovecharla para crear contenido convincente pero completamente inventado. Más allá de las simples bromas, las consecuencias son profundas: los deepfakes no consensuados podrían dañar reputaciones, difundir desinformación o incluso incitar a la violencia.

Public Citizen, un grupo de vigilancia del consumidor, lidera la acusación contra Sora 2. En una carta dirigida al director ejecutivo de OpenAI, Sam Altman, y enviada al Congreso de los EE. UU., acusan a la empresa de priorizar la velocidad sobre la seguridad al lanzar la aplicación. Argumentan que el rápido lanzamiento de Sora 2, impulsado por la presión competitiva, demuestra “un desprecio imprudente” por los derechos de los usuarios, la privacidad y la estabilidad democrática.

JB Branch, defensor de las políticas tecnológicas en Public Citizen, enfatiza la amenaza potencial a la democracia: “Creo que estamos entrando en un mundo en el que la gente no puede confiar realmente en lo que ve. Y estamos empezando a ver estrategias en política donde la primera imagen, el primer vídeo que se publica, es lo que la gente recuerda”.

Este temor no es infundado. Informes recientes destacan cómo se ha utilizado Sora 2 para generar contenido perturbador, como vídeos de mujeres estranguladas. Si bien OpenAI afirma bloquear la desnudez, sus luchas por moderar el contenido se extienden más allá del material explícito.

La empresa ha intentado controlar los daños tras las críticas generalizadas. Acordaron evitar el uso no autorizado de imágenes de figuras prominentes como Martin Luther King Jr. y Bryan Cranston en los videos de Sora 2 después de la reacción violenta de sus herederos y sindicatos que representan a los actores. Sin embargo, Branch sostiene que estas medidas reactivas se quedan cortas. Él cree que OpenAI debería priorizar las opciones de diseño que mitiguen el daño antes de lanzar productos, en lugar de abordar los problemas sólo después de la protesta pública.

El historial de OpenAI con su producto estrella, el chatbot ChatGPT, alimenta aún más estas preocupaciones. Siete demandas presentadas en Estados Unidos alegan que ChatGPT llevó a los usuarios al suicidio y a delirios dañinos a pesar de las advertencias internas sobre su potencial de manipulación. Estos paralelos resaltan un patrón recurrente: OpenAI lanza poderosas herramientas de IA prematuramente, dejándolas vulnerables al uso indebido antes de que se implementen salvaguardas sólidas.

El debate en torno a Sora 2 ilumina un momento crítico. A medida que la tecnología de IA avanza a una velocidad vertiginosa, lograr un equilibrio entre innovación y responsabilidad ética se vuelve cada vez más crucial. Si plataformas como Sora 2 no están cuidadosamente reguladas y guiadas por consideraciones éticas, las consecuencias para los individuos y la sociedad podrían ser de gran alcance y profundamente inquietantes.