Все больше известных деятелей в области технологий, бизнеса и СМИ призывают к замедлению гонки за сверхинтеллектуальный искусственный интеллект – ИИ, который превзойдет человеческий интеллект. Письмо, подписанное более чем 850 человек, включая видных ученых в области компьютерных наук, предпринимателей и деятелей культуры, призывает к временной приостановке этого развития до тех пор, пока не будут созданы необходимые меры предосторожности.
Кто выражает обеспокоенность?
Список подписантов напоминает перечень самых известных фигур в мире технологий и за его пределами. Джеффри Хинтон и Йошуа Бенджио, которых часто называют «крестными отцами» ИИ благодаря их новаторской работе, присоединились к призыву. Наряду с ними — Стив Возняк, сооснователь Apple, и Ричард Брэнсон, основатель Virgin Group. Группа также включает академиков, деятелей СМИ, таких как Стивен Фрай, религиозных лидеров и бывших политиков. Отсутствуют в списке Сэм Альтман (генеральный директор OpenAI) и Мустафа Сулейман (руководитель отдела ИИ в Microsoft), несмотря на их предыдущие предупреждения о потенциальных опасностях передового ИИ.
Понимание сверхинтеллекта и АГИ
В центре дискуссии находится сверхинтеллект, термин, который обычно понимается как ИИ, превосходящий когнитивные способности человека во всех аспектах. Опасение заключается в том, что такие системы, будучи созданными, могут стать неуправляемыми, что потенциально приведет к непредвиденным и вредным последствиям. Идея о том, что машины в конечном итоге могут выйти из-под контроля человека, имеет корни в ранних работах в области компьютерных наук, когда Алан Тьюринг в 1950-х годах предсказал, что это будет «результат по умолчанию».
Обсуждения также часто включают Искусственный общий интеллект (АГИ), который часто рассматривается как этап на пути к сверхинтеллекту. АГИ обычно определяется как ИИ, соответствующий или превосходящий когнитивные способности человека. Сэм Альтман, например, рассматривает АГИ как потенциально преобразующую силу, способную «возвысить человечество», и отличает его от сценариев, в которых машины захватывают контроль. Однако некоторые критики утверждают, что АГИ все равно может представлять значительные риски и слишком тесно связан с опасностями сверхинтеллекта, чтобы его можно было развивать без тщательного рассмотрения.
Почему растет обеспокоенность?
Призыв к паузе проистекает из нескольких взаимосвязанных опасений. В письме конкретно выделяются опасения по поводу:
- Экономических потрясений: ИИ может автоматизировать рабочие места в огромных масштабах, что приведет к масштабной безработице и экономической нестабильности.
- Потери автономии: Человек может потерять контроль над своей жизнью, поскольку системы ИИ будут принимать решения с далеко идущими последствиями.
- Угроз свободе и достоинству: Использование ИИ для наблюдения и манипулирования может подорвать гражданские свободы и права человека.
- Рисков национальной безопасности: ИИ может быть использован в качестве оружия, что приведет к новым формам войны и нестабильности.
- Экзистенциального риска: В наиболее экстремальном сценарии неуправляемое развитие ИИ может угрожать выживанию человечества.
Роль технологических компаний
Стремление к все более мощному ИИ частично подпитывается ожесточенной конкуренцией между технологическими компаниями. Эта гонка часто формулируется в терминах национальной безопасности и экономического доминирования. Некоторые компании, такие как Meta, капитализируют ажиотаж вокруг передового ИИ, используя такие термины, как «сверхинтеллект», чтобы продвигать свои новейшие модели. Однако эта гонка за превосходство в области ИИ может затмить необходимость тщательного рассмотрения потенциальных рисков и разработки надежных протоколов безопасности.
Призыв к осторожности
Растущий хор голосов, призывающих к паузе в гонке за сверхинтеллектом, отражает глубокую обеспокоенность по поводу потенциальных последствий неуправляемого развития ИИ. Подписанты полагают, что мораторий на сверхинтеллект необходим до тех пор, пока не будет достигнут широкий научный консенсус о том, что его можно безопасно и контролируемо разрабатывать, при значительной общественной поддержке. Это включает в себя разработку мер предосторожности и этических принципов до создания систем, способных превзойти человеческий интеллект, а не пытаться контролировать их после факта.
Разработка сверхинтеллекта представляет собой риски, которые носят не только технологического характера; они фундаментально человеческие, затрагивающие нашу свободу, наше процветание и, возможно, само наше существование. — Подписанты письма
В конечном счете, продолжающаяся дискуссия подчеркивает необходимость вдумчивого и совместного подхода к разработке ИИ, уделяющего приоритетное внимание благополучию человека и общественному влиянию наряду с технологическим прогрессом.

























































