Без воли нет контроля
.
Контроль над вооружениями на базе искусственного интеллекта становится одной из ключевых тем современной международной безопасности. На фоне ускоренного развития ИИ усиливается дискуссия о том, возможно ли выстроить эффективные механизмы верификации, где проходят правовые и этические «красные линии», как регулировать технологии двойного назначения и какие институциональные модели могут появиться в будущем.
Во-первых, некоторые утверждают, что алгоритмы ИИ и наборы данных не поддаются проверке, поскольку не имеют физической формы. Однако даже в случае таких договоров, как Новый договор о сокращении стратегических наступательных вооружений (New START) между США и Россией, который до февраля 2026 года предусматривал инспекции и обмен данными о ядерном оружии, существовали сомнения в надёжности верификации. Эти режимы стали результатом многолетних переговоров, коммуникации и укрепления доверия.
Полная и прозрачная проверка ядерных арсеналов всегда была ограничена. Контроль основывался на выборочных инспекциях и обмене данными, поддерживаемыми технологиями. Без готовности государств частично раскрывать арсеналы, такой режим невозможен. Другие ядерные государства также не допускают аналогичных инспекций, что усиливает противоречия.
В последние годы на режим контроля над вооружениями между США и Россией повлияли геополитические конфликты, включая войну в Украине. Обе стороны обвиняют друг друга в модернизации ядерных арсеналов. Это подтверждает, что верификация зависит не только от технологий, но и от политических условий и доверия.
Проверка алгоритмов ИИ сталкивается с техническими трудностями, но не является невозможной. Нет необходимости тестировать все модели: достаточно оценивать наиболее рискованные системы. Это сближает ИИ-контроль с подходами к кибербезопасности. Теоретически возможны независимые лаборатории, базы уязвимостей и аудит критической инфраструктуры, однако их создание ограничено взаимным недоверием государств.
Показательным примером является ситуация с Huawei в 2018 году, когда компания предложила прозрачные механизмы проверки для доступа к рынку 5G, однако многие страны ЕС отказались от сотрудничества по политическим причинам.
Во-вторых, утверждается, что «красные линии» в сфере ядерного оружия более чёткие, чем в сфере ИИ. Однако даже в ядерной сфере они остаются предметом споров. Например, решение Международного суда 1994 года не дало однозначного ответа на законность применения ядерного оружия в целях самообороны. Договор о нераспространении ядерного оружия также не содержит чётких положений о его применении.
В-третьих, распространено мнение, что ядерные технологии имеют чёткое разделение на военные и гражданские, в отличие от ИИ. Однако это разграничение является результатом длительного формирования режима нераспространения и экспортного контроля, включая такие механизмы, как Комитет Зангера. Три принципа ДНЯО — нераспространение, разоружение и мирное использование — закрепили эту систему. На практике граница между гражданскими и военными технологиями часто размыта. Иранский ядерный вопрос и развитие «начинающих ядерных держав» показывают сложность контроля над чувствительными материалами и технологиями.
Главная проблема контроля над ИИ заключается не в двойном назначении технологий, а в отсутствии согласия относительно того, какие применения являются неприемлемыми. В этом смысле ситуация напоминает период до 1945 года, когда ещё не существовало международного режима ядерного контроля.
Развитие Общего искусственного интеллекта (AGI) и Искусственного сверхинтеллекта (ASI) может привести к попыткам установления монополии на такие технологии. В дальнейшем возможны режимы, ограничивающие доступ к вычислительным мощностям, данным и энергетическим ресурсам, аналогично режиму нераспространения.
Развивающиеся страны и государства Глобального Юга, вероятно, будут критически относиться к таким механизмам, усматривая в них технологическое неравенство. Альтернативой может стать создание региональных центров вычислений и энергетики и кооперация через существующие интеграционные структуры для управления рисками ИИ.
Тяньцзяо Цзян,
доцент Института развития при Университете Фудань, /Китай/,
(в сокращ.)
В нашем Telegram-канале — темы под грифом «не для всех»: нестандартные ракурсы, дополнительные материалы и аналитика без купюр.

Ваша добровольная поддержка проектов KI очень важна!





