Une nouvelle vague d’applications de génération vidéo basées sur l’IA suscite de sérieuses inquiétudes quant à la propagation des deepfakes, à la confidentialité en ligne et aux fondements mêmes de la confiance dans les informations numériques. Sora 2 d’OpenAI, une application populaire permettant aux utilisateurs de créer de courtes vidéos à partir d’invites textuelles, illustre ces anxiétés. Bien qu’apparemment conçu pour le divertissement – pensez au rap de la reine Elizabeth ou aux séquences comiques de caméras de sonnette – le potentiel d’utilisation abusive de Sora 2 inquiète les experts et les groupes de défense.
L’attrait de Sora 2 réside dans sa simplicité. Les utilisateurs saisissent n’importe quel scénario qu’ils imaginent et l’IA génère une courte vidéo. Cette facilité d’utilisation alimente cependant les craintes que des acteurs malveillants puissent l’exploiter pour créer un contenu convaincant mais entièrement fabriqué. Au-delà de simples farces, les conséquences sont profondes : les deepfakes non consensuels pourraient nuire à la réputation, propager la désinformation ou même inciter à la violence.
Public Citizen, un groupe de surveillance des consommateurs, mène la charge contre Sora 2. Dans une lettre adressée au PDG d’OpenAI, Sam Altman, et transmise au Congrès américain, ils accusent l’entreprise de donner la priorité à la rapidité plutôt qu’à la sécurité lors de la sortie de l’application. Ils soutiennent que le lancement rapide de Sora 2, motivé par la pression concurrentielle, démontre « un mépris irresponsable » pour les droits des utilisateurs, la vie privée et la stabilité démocratique.
JB Branch, défenseur de la politique technologique chez Public Citizen, souligne la menace potentielle pour la démocratie : “Je pense que nous entrons dans un monde dans lequel les gens ne peuvent pas vraiment faire confiance à ce qu’ils voient. Et nous commençons à voir des stratégies politiques où la première image, la première vidéo diffusée, est ce dont les gens se souviennent.”
Cette crainte n’est pas infondée. Des rapports récents soulignent comment Sora 2 a été utilisé pour générer du contenu dérangeant comme des vidéos de femmes étranglées. Alors qu’OpenAI prétend bloquer la nudité, ses difficultés en matière de modération de contenu s’étendent au-delà du contenu explicite.
L’entreprise a tenté de limiter les dégâts suite à de nombreuses critiques. Ils ont convenu d’empêcher l’utilisation non autorisée de portraits de personnalités telles que Martin Luther King Jr. et Bryan Cranston dans les vidéos de Sora 2, suite aux réactions négatives de leurs successions et des syndicats représentant les acteurs. Cependant, Branch soutient que ces mesures réactives ne suffisent pas. Il estime qu’OpenAI devrait donner la priorité aux choix de conception qui atténuent les dommages avant de lancer des produits, plutôt que de résoudre les problèmes uniquement après le tollé général.
Les antécédents d’OpenAI avec son produit phare, le chatbot ChatGPT, alimentent encore ces inquiétudes. Sept poursuites intentées aux États-Unis allèguent que ChatGPT a poussé les utilisateurs au suicide et à des délires nuisibles malgré les avertissements internes concernant son potentiel de manipulation. Ces parallèles mettent en évidence un schéma récurrent : OpenAI publie prématurément de puissants outils d’IA, les laissant vulnérables à une utilisation abusive avant que des mesures de protection robustes ne soient mises en œuvre.
Le débat autour de Sora 2 éclaire un moment critique. À mesure que la technologie de l’IA progresse à une vitesse vertigineuse, il devient de plus en plus crucial de trouver un équilibre entre innovation et responsabilité éthique. Si des plateformes comme Sora 2 ne sont pas soigneusement réglementées et guidées par des considérations éthiques, les conséquences pour les individus et la société pourraient être considérables et profondément troublantes.
