Нове покоління додатків для створення відео на основі штучного інтелекту викликає серйозні занепокоєння щодо поширення фейкових відео, руйнування конфіденційності в Інтернеті та самої основи довіри до цифрової інформації. Програма OpenAI Sora 2, популярна серед користувачів завдяки своїй здатності створювати короткі відео з текстових підказок, є яскравим прикладом цих проблем. Незважаючи на те, що спочатку він був призначений для розваг – згадайте королеву Єлизавету II, реп або комічні кадри з дверним дзвінком – потенціал зловживання Sora 2 викликає настороженість експертів і неурядових організацій.
Перевагою Sora 2 є простота використання. Користувачі вводять будь-який сценарій, який вони собі уявляють, а ШІ створює коротке відео. Однак ця легкість використання викликає занепокоєння, що зловмисники можуть використовувати його для створення переконливого, але повністю фіктивного вмісту. Залишаючи банальні жарти, наслідки можуть бути дуже загрозливими: фальшиві відео, що не погоджуються, можуть завдати шкоди репутації, поширювати дезінформацію або навіть підбурювати до насильства.
Група захисту прав споживачів Public Citizen очолює рух проти Sora 2. У листі до генерального директора OpenAI Сема Альтмана та надісланого до Конгресу США вони звинувачують компанію в тому, що під час випуску додатка швидкість віддає перевагу безпеці. Вони стверджують, що поспіх із запуском Sora 2, викликаний конкуренцією, свідчить про «безвідповідальне ставлення» до прав користувачів, конфіденційності та демократичної стабільності.
Дж. Б. Бренч, юрист із питань технологічної політики Public Citizen, наголошує на загрозі демократії: «Я думаю, що ми вступаємо у світ, де люди не можуть довіряти тому, що вони бачать. І ми починаємо бачити стратегії в політиці, де перше зображення, яке з’являється, перше відео, яке стає публічним, — це те, що люди запам’ятовують».
Це занепокоєння не є безпідставним. Недавні звіти показують, як Sora 2 використовувався для створення тривожного контенту, наприклад відеозаписів жінок, які задихалися до смерті. Хоча OpenAI стверджує, що блокує оголене тіло, його проблеми з модерацією вмісту виходять за межі відвертих матеріалів.
Компанія спробувала обмежити збитки після широкої критики. Вони погодилися заборонити несанкціоноване використання таких відомих діячів, як Мартін Лютер Кінг-молодший і Брайан Кренстон у відео Sora 2 після звернень їхніх спадкоємців і профспілок акторів. Однак Бранч стверджує, що цих заходів реагування недостатньо. Він вважає, що OpenAI має надавати пріоритет дизайну, який зменшує потенційну шкоду до випуску продуктів, а не вирішувати проблеми лише після громадського обурення.
Конкретний приклад історії OpenAI з його флагманським продуктом, чат-ботом ChatGPT, ще більше підсилює ці занепокоєння. У семи позовах, поданих у США, стверджується, що ChatGPT привів користувачів до самогубства та шкідливих галюцинацій, незважаючи на внутрішні попередження про його потенціал для маніпуляцій. Ці паралелі висвітлюють повторювану закономірність: OpenAI передчасно випускає потужні інструменти штучного інтелекту, залишаючи їх уразливими для зловживань, доки не будуть запроваджені надійні гарантії.
Дебати навколо Sora 2 підкреслюють критичний момент. Оскільки технології штучного інтелекту прогресують із блискавичною швидкістю, пошук балансу між інноваціями та етичною відповідальністю стає все більш важливим. Якщо такі платформи, як Sora 2, не будуть ретельно регулюватися та не дотримуватися етики, наслідки для окремих людей і суспільства можуть бути широко поширеними та глибоко тривожними.






























































