RKS Global

Апрель 2026

Новый закон об ИИ в России: оборона, суверенитет и духовные ценности

Разбор первого российского законопроекта о регулировании искусственного интеллекта

Минцифры опубликовало первый в России законопроект о регулировании искусственного интеллекта. Он описывает принципы разработки ИИ, обязанности пользователей и разработчиков, полномочия госорганов, и несмотря на свою расплывчатость, имеет опасные последствия. Эксперты RKS Global разобрались, как власти собираются контролировать ИИ, и что это значит для цифровой индустрии и прав человека.

Общие выводы

Законопроект выглядит неоднородно и противоречиво. Похоже, что его писали несколько авторов из разных сфер, которые продвигали свои интересы, а итоговый текст был склеен из их предложений в сжатые сроки. Причинами спешки могут быть грядущие выборы в Госдуму, отставание в регуляторике не только от западных стран, но и от Казахстана и Кыргызстана, а также потенциальная необходимость срочно внедрить ИИ в определенные сферы общественной жизни.

Некоторые положения закона изложены поверхностно, другие наоборот детализированы. Так, более двадцати ключевых вопросов оставлены на откуп ФСБ, Правительству, ФСТЭК и другим органам. Положения, касающиеся интеллектуального права на сгенерированный контент, выглядят и вовсе взаимоисключающе. При этом, чрезвычайно подробно описано применение энергетических льгот для центров обработки данных (в т.ч преимущественное присоединение к электросетям, льготные тарифы и освобождение от платы за присоединение).

Искусственный интеллект предлагается понимать как технологию, основанную на «имитации когнитивных функций человека» (п.1 ст. 3). Это расплывчатая формулировка — она не дает представления о том, насколько похоже и какие именно функции нужно имитировать, и к тому же, далеко не все ИИ-решения работают на методах машинного обучения и архитектуре нейронных сетей. Перечисление «технологий ИИ» (технологий, включающих в себя компьютерное зрение, распознавание и синтез речи, интеллектуальную поддержку принятия решений и тд) тоже не делает определение исчерпывающим в контексте невероятно быстрого развития сферы ИИ.

Самая большая угроза для общества — закон никак не регулирует применение ИИ для целей обороны, обеспечения национальной и общественной безопасности и правопорядка (ч.4 ст.1). Более того, по сути прямым текстом говорится, что «особенности применения технологий ИИ» в данных сферах регулирует один человек — президент РФ.

В целом, исключать сферу обороны из правоприменения — обычное дело для законодателей по всему миру. Но исключение сферы безопасности и правопорядка — очень тревожный сигнал. Уже сейчас активно развиваются полицейская робототехника, системы предиктивного контроля, технологии распознавания эмоций в местах массового скопления людей, автоматизированный мониторинг соцсетей и тд. С учетом крайне широких полномочий, которые и так есть у российских силовиков, это огромный шаг в сторону полицейского государства.

Также, закон в целом не запрещает никакие практики применения и принципы работы ИИ. Единственное, чего нельзя делать операторам ИИ — манипулировать поведением и «эксплуатировать уязвимости человека». Под эксплуатацией уязвимостей понимается использование особенностей физического лица (возрастных, психологических, социально-экономических и тд) для «целенаправленного воздействия на поведение, принятие решений или получение несанкционированного доступа к информации, способной причинить вред». Видимо, поэтому российский ИИ уже отказывается отвечать на «чувствительные» запросы.

Помимо этого, закон заставляет владельцев сервисов ИИ, у которых суточная российская аудитория превышает полмиллиона, хранить данные о взаимодействии пользователей с сервисом на территории РФ. Это требование №149-ФЗ из пакета Яровой: информация о пользователях, мультимедиа материалы и содержание сообщений должны храниться на локальных серверах и быть доступными для ФСБ в любое время. Фактически, это прямая дорога к внедрению автоматизированного выявления нежелательного контента.

Технологический протекционизм

Законотворцы стремятся дать приоритет не просто отечественным, а близким к государству разработчикам, создавая правовую основу для запрета иностранных технологий (ст. 7, 8 и 17)

На вершине этого — требование разрабатывать и внедрять ИИ на основе традиционных российских духовно-нравственных ценностей, как то: права и свободы человека, служение Отечеству, высокие нравственные идеалы, крепкая семья, милосердие, справедливость, коллективизм, историческая память и преемственность поколений и тд. Выполнение этого требования невозможно оценить с помощью метрик, что создает почву для произвольного правоприменения. Что еще хуже, это прямая угроза превращения моделей ИИ в рупор трансляции государственной идеологии.

Суверенными будут признаваться модели, которые:

  • -

    целиком разрабатывались и обучались на территории РФ;

  • -

    целиком разрабатывались и обучались российскими юрлицами;

  • -

    обучались на наборах данных, сформированных на территории РФ гражданами и российскими юрлицами.

Это довольно условные критерии, которые ведут к ухудшению конкуренции в российском бизнесе. Например, неясно, можно ли считать сформированным на территории РФ набор данных, который был скачан из Интернета, а затем проверен сотрудниками российской компании. Не говоря о том, что для качественного обучения генеративного ИИ нужно очень много данных. Если ограничить выборку только тем, что водится в России, результат будет посредственным.

Некоторые модели ИИ могут войти в своего рода белый список — реестр «доверенных моделей» — и использоваться в государственных системах и объектах критической инфраструктуры (больницы, школы и тд). Для этого им надо:

  • -

    обеспечивать обработку данных исключительно на территории РФ;

  • -

    иметь подтверждение соответствия требованиям по безопасности ФСТЭК и ФСБ;

  • -

    иметь подтверждение соответствия требованиям качества, установленным иными органами и госкорпорациями.

Как и в случае с белым списком сайтов, работающих при шатдаунах, эти положения вполне могут использоваться для давления на бизнес. Особенно если от признания модели «суверенной и национальной» или «доверенной» будет зависеть доступность для пользователей или финансирование.

Закон допускает возможность запрета трансграничных технологий ИИ согласно общему российскому законодательству. Ничего более конкретного не сказано, но скорее всего имеются в виду жесткие блокировки моделей и административные наказания за их использование. А это ударит по российскому бизнесу и специалистам, которые в своей работе используют более эффективные иностранные модели.

Права и ответственность

Права пользователей сформулированы декларативно и повторяют положения общего законодательства. Например, отказаться от взаимодействия с системами ИИ можно будет лишь в особых случаях, которые будут позже определены Правительством. Скорее всего, речь будет идти только про жизненно необходимые сервисы и услуги. Компенсация вреда привязана к «неправомерности» использования и отсылает к общим нормам Гражданского кодекса.

При этом разработчики моделей ИИ, операторы систем (те, кто отвечает за обслуживание) и владельцы сервисов (те, кто предоставляет конечный продукт) несут ответственность за использование своих систем, только если они «заведомо знали или должны были знать о возможности получения противоправного результата». Поскольку доказать заведомое знание не так просто, это создает очередные условия для избирательного правоприменения.

Законопроект в его текущей редакции представляет собой не столько инструмент защиты прав граждан и управления рисками ИИ, сколько инструмент для государственного контроля над рынком ИИ и его участниками. Если его одобрят, он вступит в силу 1 сентября 2027 года.

Скачать полный текст
обзора

Контакты