Апрель 2026
Разбор первого российского законопроекта о регулировании искусственного интеллекта
Минцифры опубликовало первый в России законопроект о регулировании искусственного интеллекта. Он описывает принципы разработки ИИ, обязанности пользователей и разработчиков, полномочия госорганов, и несмотря на свою расплывчатость, имеет опасные последствия. Эксперты RKS Global разобрались, как власти собираются контролировать ИИ, и что это значит для цифровой индустрии и прав человека.
Законопроект выглядит неоднородно и противоречиво. Похоже, что его писали несколько авторов из разных сфер, которые продвигали свои интересы,
а итоговый текст был склеен из их предложений в сжатые сроки. Причинами спешки могут быть грядущие выборы в Госдуму, отставание в регуляторике
не только от западных стран, но и от Казахстана и Кыргызстана, а также потенциальная необходимость срочно внедрить ИИ в определенные сферы общественной жизни.
Некоторые положения закона изложены поверхностно, другие наоборот детализированы. Так, более двадцати ключевых вопросов оставлены на откуп ФСБ, Правительству, ФСТЭК и другим органам.
Положения, касающиеся интеллектуального права на сгенерированный контент, выглядят и вовсе взаимоисключающе. При этом, чрезвычайно подробно описано применение энергетических льгот
для центров обработки данных (в т.ч преимущественное присоединение к электросетям, льготные тарифы и освобождение от платы за присоединение).
Искусственный интеллект предлагается понимать как технологию, основанную на «имитации когнитивных функций человека» (п.1 ст. 3). Это расплывчатая формулировка — она не дает представления о том, насколько похоже и какие именно функции нужно имитировать, и к тому же, далеко не все ИИ-решения работают на методах машинного обучения и архитектуре нейронных сетей. Перечисление «технологий ИИ» (технологий, включающих в себя компьютерное зрение, распознавание и синтез речи, интеллектуальную поддержку принятия решений и тд) тоже не делает определение исчерпывающим в контексте невероятно быстрого развития сферы ИИ.
Самая большая угроза для общества — закон никак не регулирует применение ИИ для целей обороны, обеспечения национальной и общественной безопасности и правопорядка (ч.4 ст.1). Более того, по сути прямым текстом говорится, что «особенности применения технологий ИИ» в данных сферах регулирует один человек — президент РФ.
В целом, исключать сферу обороны из правоприменения — обычное дело для законодателей по всему миру. Но исключение сферы безопасности и правопорядка — очень тревожный сигнал.
Уже сейчас активно развиваются полицейская робототехника, системы предиктивного контроля, технологии распознавания эмоций в местах массового скопления людей, автоматизированный мониторинг соцсетей и тд.
С учетом крайне широких полномочий, которые и так есть у российских силовиков, это огромный шаг в сторону полицейского государства.
Также, закон в целом не запрещает никакие практики применения и принципы работы ИИ. Единственное, чего нельзя делать операторам ИИ — манипулировать поведением и «эксплуатировать уязвимости человека».
Под эксплуатацией уязвимостей понимается использование особенностей физического лица (возрастных, психологических, социально-экономических и тд) для «целенаправленного воздействия на поведение, принятие решений или получение несанкционированного доступа к информации, способной причинить вред».
Видимо, поэтому российский ИИ уже отказывается отвечать на «чувствительные» запросы.
Помимо этого, закон заставляет владельцев сервисов ИИ, у которых суточная российская аудитория превышает полмиллиона, хранить данные о взаимодействии пользователей с сервисом на территории РФ.
Это требование №149-ФЗ из пакета Яровой: информация о пользователях, мультимедиа материалы и содержание сообщений должны храниться на локальных серверах и быть доступными для ФСБ в любое время.
Фактически, это прямая дорога к внедрению автоматизированного выявления нежелательного контента.
Законотворцы стремятся дать приоритет не просто отечественным, а близким к государству разработчикам, создавая правовую основу для запрета иностранных технологий (ст. 7, 8 и 17)
На вершине этого — требование разрабатывать и внедрять ИИ на основе традиционных российских духовно-нравственных ценностей, как то: права и свободы человека,
служение Отечеству, высокие нравственные идеалы, крепкая семья, милосердие, справедливость, коллективизм, историческая память и преемственность поколений и тд.
Выполнение этого требования невозможно оценить с помощью метрик, что создает почву для произвольного правоприменения. Что еще хуже, это прямая угроза превращения моделей ИИ в рупор трансляции государственной идеологии.
Суверенными будут признаваться модели, которые:
целиком разрабатывались и обучались на территории РФ;
целиком разрабатывались и обучались российскими юрлицами;
обучались на наборах данных, сформированных на территории РФ гражданами и российскими юрлицами.
Это довольно условные критерии, которые ведут к ухудшению конкуренции в российском бизнесе. Например, неясно, можно ли считать сформированным на территории РФ набор данных, который был скачан из Интернета, а затем проверен сотрудниками российской компании. Не говоря о том, что для качественного обучения генеративного ИИ нужно очень много данных. Если ограничить выборку только тем, что водится в России, результат будет посредственным.
Некоторые модели ИИ могут войти в своего рода белый список — реестр «доверенных моделей» — и использоваться в государственных системах и объектах критической инфраструктуры (больницы, школы и тд). Для этого им надо:
обеспечивать обработку данных исключительно на территории РФ;
иметь подтверждение соответствия требованиям по безопасности ФСТЭК и ФСБ;
иметь подтверждение соответствия требованиям качества, установленным иными органами и госкорпорациями.
Как и в случае с белым списком сайтов, работающих при шатдаунах, эти положения вполне могут использоваться для давления на бизнес.
Особенно если от признания модели «суверенной и национальной» или «доверенной» будет зависеть доступность для пользователей или финансирование.
Закон допускает возможность запрета трансграничных технологий ИИ согласно общему российскому законодательству.
Ничего более конкретного не сказано, но скорее всего имеются в виду жесткие блокировки моделей и административные наказания за их использование.
А это ударит по российскому бизнесу и специалистам, которые в своей работе используют более эффективные иностранные модели.
Права пользователей сформулированы декларативно и повторяют положения общего законодательства. Например, отказаться от взаимодействия с системами
ИИ можно будет лишь в особых случаях, которые будут позже определены Правительством. Скорее всего, речь будет идти только про жизненно необходимые сервисы и услуги.
Компенсация вреда привязана к «неправомерности» использования и отсылает к общим нормам Гражданского кодекса.
При этом разработчики моделей ИИ, операторы систем (те, кто отвечает за обслуживание) и владельцы сервисов (те, кто предоставляет конечный продукт)
несут ответственность за использование своих систем, только если они «заведомо знали или должны были знать о возможности получения противоправного результата».
Поскольку доказать заведомое знание не так просто, это создает очередные условия для избирательного правоприменения.
Законопроект в его текущей редакции представляет собой не столько инструмент защиты прав граждан и управления рисками ИИ,
сколько инструмент для государственного контроля над рынком ИИ и его участниками. Если его одобрят, он вступит в силу 1 сентября 2027 года.