Новое поколение приложений для генерации видео с использованием искусственного интеллекта вызывает серьезные опасения по поводу распространения фейковых видео, нарушения онлайн-конфиденциальности и самого фундамента доверия к цифровой информации. Приложение Sora 2 от OpenAI, популярное среди пользователей за возможность создания коротких видео из текстовых подсказок, является ярким примером этих тревог. Хотя оно вначале задумывалось для развлечений – представьте себе королеву Елизавету II, речитативую рэп или комические кадры с дверного звонка – потенциал злоупотребления Sora 2 настораживает экспертов и общественные организации.
Преимущество Sora 2 заключается в своей простоте использования. Пользователи вводят любое воображаемое ими сценарий, а ИИ генерирует короткое видео. Однако эта лёгкость эксплуатации порождает опасения, что злоумышленники могут использовать её для создания убедительного, но полностью выдуманного контента. Помимо банальных шуток, последствия могут быть глубоко грозными: несогласные фейковые видео могут нанести ущерб репутации, распространять дезинформацию или даже провоцировать насилие.
Группа по защите прав потребителей Public Citizen возглавляет движение против Sora 2. В письме OpenAI генеральному директору Сэму Альтману и направленном в Конгресс США, они обвиняют компанию в том, что она ставит скорость выше безопасности при выпуске приложения. Они утверждают, что стремительный запуск Sora 2, обусловленный конкуренцией, свидетельствует о «безответственном отношении» к правам пользователей, конфиденциальности и демократической стабильности.
Джей Би Бранч, адвокат в области технологических политик Public Citizen, подчеркивает угрозу для демократии: «Я думаю, что мы входим в мир, в котором люди не могут доверять тому, что видят. И мы начинаем наблюдать стратегии в политике, где первое появляющееся изображение, первый видеоролик, который становится общедоступным, — это то, что люди запоминают».
Эта тревога не беспочвенна. Недавние отчеты показывают, как Sora 2 использовался для создания тревожного контента, например, видео с женщинами, задыхающимися от удушья. Хотя OpenAI утверждает, что блокирует обнаженное изображение, проблемы ее модерации контента простираются за рамки явного материала.
Компания попыталась ограничить ущерб после широкой критики. Они согласились запретить несанкционированное использование образа известных личностей, таких как Мартин Лютер Кинг-младший и Брайан Cranston в видеороликах Sora 2, после обращений их наследников и профсоюзов актеров. Тем не менее, Бранч утверждает, что эти реактивные меры недостаточны. Он считает, что OpenAI должна ставить во главу угла проектирование, которое снижает потенциальный вред до выпуска продуктов, а не устранять проблемы только после общественного возмущения.
Отдельный пример истории OpenAI с ее флагманским продуктом — чат-бот ChatGPT, еще больше усиливает эти опасения. Семь исков, поданных в США, утверждают, что ChatGPT привел пользователей к самоубийству и вредным галлюцинациям, несмотря на внутренние предупреждения о его потенциале для манипуляции. Эти параллели выявляют повторяющийся шаблон: OpenAI выпускает мощные AI-инструменты преждевременно, оставляя их уязвимыми для злоупотреблений до внедрения надежных мер защиты.
Дебаты вокруг Sora 2 освещают критический момент. По мере того как технологии ИИ развиваются со скоростью молнии, поиск баланса между инновациями и этической ответственностью становится все более важным. Если платформы типа Sora 2 не будут тщательно регулироваться и направляться этическими соображениями, последствия для отдельных лиц и общества могут быть обширными и глубоко тревожными.

























































