Российская модель регулирования искусственного интеллекта: от рамочных концепций к проекту суверенного закона
В статье разбирается российская модель регулирования искусственного интеллекта - от первых рамочных концепций и экспериментальных правовых режимов до проекта федерального закона “Об основах государственного регулирования сфер применения технологий искусственного интеллекта в Российской Федерации”. В центре внимания не сам факт появления такого закона, а его внутренняя логика: как государство пытается совместить развитие технологий, безопасность, технологический суверенитет, права граждан, контроль над синтетическим контентом, ответственность участников ИИ-цепочки и допуск моделей в государственные системы.
На текущий момент это особенно важно, поскольку искусственный интеллект уже перестал быть просто технологией для удобных сервисов, генерации текстов и красивых картинок. Он постепенно становится инфраструктурой принятия решений - в бизнесе, государственном управлении, финансах, медицине, образовании, праве и информационной среде. А значит, вопрос регулирования ИИ сводится как минимум к тому, кто контролирует цифрового агента, кто отвечает за его действия, как гражданин может оспорить автоматизированное решение и где проходит граница между технологическим суверенитетом и административным черным ящиком. Именно эти вопросы и определяют, станет ли будущий закон рабочей правовой инфраструктурой или очередным набором реестров, деклараций и красивых слов для ведомственной полки.
1. Долгая осторожность государства
Российское регулирование искусственного интеллекта долго развивалось в режиме осторожного наблюдения. Государство довольно рано признало ИИ самостоятельным направлением технологической политики, однако не спешило создавать жесткий нормативный контур, предпочитая концепции, стратегии, экспериментальные режимы, отраслевые рекомендации и этические декларации. В этом была понятная логика: технология менялась быстрее, чем юридический аппарат успевал вырабатывать устойчивые понятия, а преждевременное регулирование могло бы законсервировать рынок в момент, когда сами участники еще только нащупывали жизнеспособные модели.
Первой системной попыткой описать российский подход стала “Концепция развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 года”, утвержденная распоряжением Правительства РФ от 19 августа 2020 года № 2129-р. Это был рамочный документ, задававший общий вектор: развитие технологий, снижение правовой неопределенности, создание условий для применения ИИ, включая государственное управление, и поиск баланса между инновациями и защитой охраняемых законом интересов. Уже в этой концепции проявилась характерная черта российской модели: право оставляло за собой возможность догнать технологию позднее, когда появится административная, экономическая или политическая необходимость.
Затем появился проект новой концепции развития регулирования отношений в сфере ИИ до 2030 года, подготовленный Минцифры совместно с Альянсом в сфере искусственного интеллекта в 2025 году. В публичных сообщениях говорилось о человекоориентированном подходе, технологическом суверенитете, доверенности технологий, недопустимости причинения вреда человеку и отказе от антропоморфизации ИИ. Всё это звучит разумно на уровне принципов, но именно в этой разумности и скрыта старая проблема российского регулирования: принципы аккуратно множатся, переходят из документа в документ, становятся языком официальной осторожности, а прямые права гражданина, обязанности разработчика, правила доказывания, распределение ответственности и режим синтетического контента остаются в тени.
До появления проекта специального закона российская модель фактически держалась на двух опорах: экспериментальных правовых режимах по Федеральному закону от 31 июля 2020 года № 258-ФЗ и этико-методических документах, разработанных крупными участниками рынка, ассоциациями и отраслевыми регуляторами. Для апробации технологий такая схема удобна. Для защиты прав она слабовата: экспериментальный режим точечен и временный, а этический кодекс работает ровно до того момента, пока его соблюдение не начинает мешать сильному участнику зарабатывать, масштабироваться или удерживать власть над интерфейсом.
В начале 2025 года эта осторожность была прямо артикулирована на политическом уровне: преждевременное введение обязательных требований к ИИ могло, по логике правительства, затормозить развитие технологии. Но уже в 2026 году появились сообщения о подготовке более предметного законопроекта. Российская машина регулирования включилась в привычном ритме: долго наблюдать, затем собрать рамочный акт, оставив за собой возможность позднее достроить ограничительный контур через подзаконные акты, реестры, допуски, согласования и ведомственные требования.
2. Проект закона: первая попытка собрать контур
Проект федерального закона “Об основах государственного регулирования сфер применения технологий искусственного интеллекта в Российской Федерации” стал первой крупной попыткой перевести российское регулирование ИИ из режима концептуальных заявлений в режим закона. В предоставленном тексте проект вносится Правительством РФ и охватывает отношения, связанные с разработкой, внедрением, использованием и иным применением технологий ИИ на территории России. Его цели сформулированы широко: ускоренное развитие и внедрение ИИ, безопасность личности, общества и государства, государственный технологический суверенитет.
Уже эта рамка показывает внутреннее напряжение документа. Законопроект одновременно хочет быть актом промышленной политики, законом о безопасности, законом о правах граждан, законом об информации, частично законом об интеллектуальной собственности и политической декларацией о ценностях. Такие задачи в принципе можно соединить в одном рамочном акте, но только при очень точной юридической архитектуре. В текущей версии отдельные блоки местами стоят рядом, как здания на генеральном плане, между которыми дороги обещают дорисовать позднее.
Сильная сторона проекта - понятийный аппарат. Законопроект разводит искусственный интеллект, систему ИИ, сервис ИИ, технологии ИИ, наборы данных, модель ИИ, обучение модели, разработчика модели, оператора системы, владельца сервиса и пользователя. Для права это важно, потому что ИИ почти всегда распределен между множеством субъектов. Один создает фундаментальную модель, второй дообучает ее на отраслевых данных, третий встраивает ее в сервис, четвертый эксплуатирует в бизнес-процессе, пятый показывает результат пользователю, шестой принимает на его основе юридически значимое решение, седьмой хранит данные и логи, восьмой обеспечивает облачную инфраструктуру. Обычная юридическая привычка искать одного исполнителя, одного владельца и одного причинителя вреда здесь быстро начинает задыхаться.
При этом отдельные определения нуждаются в технической шлифовке. Например, обучение модели в проекте описывается через настройку “числовых значений (алгоритмов)” модели. Для закона, который должен пережить несколько поколений архитектур ИИ, такая формула слишком приблизительна. Закон не обязан объяснять нейросеть языком презентации для совещания, но должен фиксировать юридически значимые признаки: автономность, обучаемость, влияние на решение, область применения, данные, контроль и риск.
Главной несущей балкой проекта могла бы стать статья о риск-ориентированном подходе. В ней предлагается учитывать назначение технологий ИИ, вероятность и масштаб причинения вреда, степень автономности систем, степень влияния на юридически значимые действия и категорию обрабатываемой информации. Это правильный скелет регулирования. Бытовой генератор изображения, рекомендательная система интернет-магазина, банковский скоринг, медицинская диагностика, автономный транспорт и ИИ в государственном решении о предоставлении социальной выплаты не должны жить под одинаковым регуляторным давлением. Иначе право одновременно душит низкорисковые сервисы и слишком грубо работает с действительно опасными контурами.
3. Суверенность, доверенность и административный соблазн
Самый политически заряженный блок проекта связан со статусами моделей: большие фундаментальные модели, суверенные и национальные большие фундаментальные модели, доверенные модели ИИ. Первоначальная редакция определяла суверенные и национальные модели через территорию разработки и обучения, российское гражданство участников и происхождение наборов данных. Эта формула хорошо показывает административный соблазн: определить суверенность через паспорт, географию и происхождение данных.
Но ИИ не становится суверенным от того, что его учили на “правильной” территории и при участии лиц с “правильным” гражданством. Суверенность в сфере ИИ выражается через контроль над вычислениями, данными, архитектурой, обновлениями, цепочкой поставки, режимом доступа, внешними зависимостями, аудитом и юридической подчиненностью ключевых субъектов российской юрисдикции в критических сферах.
Позднее этот блок был заметно смягчен: из доработанной версии, по сообщениям СМИ и публичным заявлениям, исключили требование к наборам данных российского происхождения и сняли требование о том, чтобы разработку и обучение осуществляли именно граждане России. Это разумная корректировка. Современная фундаментальная модель требует огромного корпуса данных - многоязычных, научных, технических, отраслевых, культурных. Российский рынок сам по себе не может дать весь объем и разнообразие данных, необходимых для конкурентного обучения моделей общего назначения.
Проблема остается в другом: в критерии соответствия “традиционным духовно-нравственным ценностям”. Если такой критерий применяется к отдельным государственным контурам, образовательным сервисам или работе с несовершеннолетними, его еще можно встроить в отраслевые правила. Если он становится общим критерием статуса модели, он начинает конкурировать с техническими критериями качества, безопасности и надежности. Модель можно проверить на устойчивость, безопасность, качество документации, локализацию обработки, защищенность инфраструктуры и наличие процедур инцидентного реагирования. Нравственность модели нельзя измерить экспертной организацией так же, как уровень шума или пожарную безопасность. Право должно уметь проверять то, что оно требует. Иначе требование превращается в дискрецию, а затем в административную вкусовщину.
Статья о доверенных моделях выглядит практичнее. Проект предполагает, что в государственных информационных системах и на значимых объектах критической информационной инфраструктуры могут применяться модели, включенные в реестр доверенных моделей, имеющие подтверждение соответствия требованиям безопасности, локальную обработку данных и соответствие отраслевым требованиям качества. Логика здравая: государственный ИИ и ИИ в критической инфраструктуре действительно требуют повышенного стандарта.
Но доверие не создается одной записью в реестре. Реестр может подтверждать административный статус, но содержательное доверие возникает из другой инфраструктуры: документированной области применения, тестирования на известных классах риска, независимого аудита, стресс-тестирования, журналирования решений, процедуры обновлений, мониторинга инцидентов, права на человеческий пересмотр и возможности проверить путь принятия решения. Без этого реестр рискует стать привычной печатью “допущено”, за которой может находиться как надежная система, так и технологический черный ящик с правильно оформленной папкой документов.
4. Права граждан и государственный ИИ
Один из сильных элементов проекта - статья о правах граждан при использовании ИИ. Она вводит обязанность информировать покупателя или потребителя об использовании ИИ при продаже товаров или оказании услуг без участия человека в принятии решения, обязанность уведомлять гражданина об автономном решении, затрагивающем его права, обязанности, свободы и законные интересы, возможность отказа от автономного использования ИИ в установленных случаях, право на досудебное обжалование решений органов власти и организаций с государственным участием, принятых с использованием ИИ, а также право на компенсацию вреда.
Для российской правовой системы это принципиальный шаг: гражданин появляется в законопроекте не только как пользователь сервиса, но и как лицо, на которое может быть направлено автономное решение. Однако сама норма требует процессуального наполнения. Простого уведомления о применении ИИ мало. Человек должен понимать, в какой части решения использовался ИИ, какие данные учитывались, носил ли результат рекомендательный или обязательный характер для должностного лица, кто принял окончательное решение, как оспорить исходные данные, где хранятся логи, как получить человеческий пересмотр и как распределяется бремя доказывания.
Без этих деталей право на обжалование легко превращается в кнопку на портале, за которой сидит та же система, только с другим номером обращения. Государственный ИИ опасен не только ошибкой. Опаснее сочетание ошибки, непрозрачности и властного принуждения. Когда ошибается частный сервис, человек теряет деньги, доступ или возможность. Когда ошибается государственный ИИ, человек может потерять пособие, статус, свободу передвижения, доступ к услуге, репутацию, а в предельных случаях - процессуальную защиту.
Поэтому для государственного ИИ нужен повышенный стандарт прозрачности. Автономное решение, затрагивающее права, обязанности, свободы или законные интересы гражданина, не должно становиться окончательным без доступного механизма человеческого пересмотра.
Здесь важно понимать:
Государственный ИИ не вправе быть “черным ящиком суверена”!
Суверенитет государства в сфере ИИ должен означать способность контролировать собственные цифровые инструменты и отвечать за их применение перед человеком, которого эти инструменты затронули.
5. Ответственность, синтетический контент и авторское право
Проект пытается распределить обязанности между разработчиком модели, оператором системы, владельцем сервиса и пользователем. Разработчик отвечает за безопасность модели, документацию, выявление рисков и порядок контроля. Оператор - за безопасную эксплуатацию, тестирование системы, информирование пользователей, приостановление эксплуатации при угрозе вреда, учет инцидентов и назначение ответственных лиц. Владелец сервиса - за правила доступа, меры против противоправного использования, информирование пользователя и ограничение создания незаконного материала. Пользователь - за соблюдение правил и законное использование сервиса.
Это правильное направление. Ответственность за ИИ нельзя описывать примитивным вопросом “кто виноват - человек или машина”. Нужно видеть цепочку контроля. Разработчик отвечает за дефекты модели, известные уязвимости, отсутствие разумного тестирования и вводящую в заблуждение документацию. Оператор - за эксплуатацию, выход за назначение и отсутствие реагирования на инциденты. Владелец сервиса - за интерфейс, предупреждения, правила доступа, коммерческую политику и меры против очевидных злоупотреблений. Пользователь - за умышленное противоправное применение результата и обход защитных механизмов.
Проблема в том, что формулировки проекта местами требуют невозможного. “Исключение” дискриминационных функциональных особенностей звучит красиво, но для сложных моделей корректнее говорить о снижении риска, тестировании, выявлении, документировании и исправлении. “Исчерпывающие меры” предотвращения вреда в сфере ИИ тоже выглядят юридической ловушкой. Абсолютно безопасной модели не существует, как не существует абсолютно безопасного автомобиля, электросети или абсолютно безошибочного судьи. Право должно требовать разумных, соразмерных, технологически доступных и проверяемых мер, соответствующих назначению системы и уровню риска. Невозможные стандарты почти всегда заканчиваются выборочным наказанием.
Статья о маркировке синтетического контента отвечает на реальную угрозу. Сгенерированные изображения, голоса, видео и документы разрушают привычную презумпцию достоверности визуального и аудиального материала. Для выборов, судебных доказательств, деловой репутации, мошенничества и частной жизни это уже инфраструктурная проблема. Но универсальная маркировка всего контента, созданного с использованием ИИ, быстро станет шумом. Если маркировать каждую стилистическую правку текста, каждую ретушь фотографии и каждую презентацию с автоматически созданным фоном, предупреждение потеряет смысл. Строгая видимая маркировка нужна там, где материал способен ввести человека в заблуждение относительно реального события, лица, голоса, изображения, официального сообщения или доказательства. Машиночитаемая маркировка нужна платформам, экспертам, судам и системам автоматической проверки. Вспомогательное использование ИИ достаточно раскрывать договорно или технически.
Самым уязвимым фрагментом проекта остается интеллектуальная собственность. Законопроект пытается одновременно признать охраноспособность результатов, созданных с применением ИИ, и урегулировать обучение моделей на охраняемых объектах. Для российского гражданского права это слишком тонкая материя, чтобы решать ее внутри рамочного закона об ИИ. Авторское право традиционно связано с творческим трудом человека. Если законодатель хочет признать охрану результатов, созданных автоматизированной системой без творческого вклада человека, нужно менять конструкцию авторства, первоначального правообладателя, срока охраны, критерия оригинальности и режима исключительных прав.
То же касается обучения моделей на произведениях. Экономически понятно, почему разработчики хотят легализовать интеллектуальный анализ текста и данных: без больших массивов данных фундаментальные модели не развиваются. Но системно это вопрос ограничений исключительных прав, а значит - предмет Гражданского кодекса. Иначе рамочный закон об ИИ начинает переписывать частное право через боковую дверь, причем менее точным языком, чем требует гражданско-правовая материя.
6. Заделы для улучшений законопроекта
Российский законопроект об ИИ хорош тем, что государство наконец начинает видеть ИИ как инфраструктурное явление. В нем есть правильные элементы: разделение ролей, риск-ориентированные критерии, права граждан при автономных решениях, маркировка синтетического контента, доверенные модели для государственных систем и критической инфраструктуры, мониторинг инцидентов, поддержка вычислительной базы. Это не пустой текст. В нем есть юридические зерна, из которых можно вырастить полноценную систему регулирования цифровых агентов.
Его слабость в попытке заменить точность широтой. В одном акте смешаны публичное право, гражданское право, авторское право, информационная безопасность, промышленная политика, ценностная доктрина и платформенное регулирование. Сам по себе объем не страшен для рамочного закона, но он требует внутренней архитектуры. Пока отдельные блоки стоят рядом, а связи между ними местами только угадываются.
Улучшить проект можно без отказа от идеи суверенитета. Суверенность следует определять через контроль: над критической обработкой данных, инфраструктурой, обновлениями, аудитом, логированием, режимом доступа и внешними зависимостями. Национальную модель стоит понимать как модель, развиваемую российским юридическим лицом и поддерживаемую в рамках промышленной политики. Доверенную модель - как модель, прошедшую проверяемую процедуру оценки безопасности и качества для конкретной области применения. Эти статусы нужно развести, иначе они сольются в один административный знак качества, который означает всё сразу и потому перестает означать что-либо точно.
Риск-ориентированную статью нужно сделать центром закона. От назначения системы, автономности, влияния на юридически значимые действия, категории данных, масштаба вреда и возможности человеческого контроля должны зависеть обязанности субъектов. Низкорисковые сервисы должны получать легкий режим. Высокорисковые - документацию, тестирование, аудит, логирование, человеческий пересмотр и инцидентную отчетность. Государственные и критические системы - повышенный стандарт прозрачности и допуска.
Права граждан нужно перевести из деклараций в процедуры. Уведомление об ИИ должно сопровождаться правом узнать роль ИИ в решении, получить объяснение в объеме, достаточном для защиты права, оспорить исходные данные, потребовать человеческого рассмотрения, получить мотивированный ответ и использовать логи в споре.
Ответственность следует привязать к разумным мерам и предсказуемым классам риска. Вина разработчика должна выводиться из дефекта модели, недостоверной документации, игнорирования известных уязвимостей, отсутствия тестирования или сознательного проектирования опасной функции. Вина оператора - из неправильной эксплуатации, нарушения назначения, отсутствия мониторинга и реакции. Вина владельца сервиса - из интерфейса, правил доступа, недостаточных ограничений, плохой модерации очевидных злоупотреблений и коммерческого стимулирования опасного использования. Вина пользователя - из умысла, обхода защиты и незаконного применения результата.
Интеллектуальную собственность лучше вынести в Гражданский кодекс и специальные поправки к нему. Рамочный закон может требовать договорной прозрачности: раскрывать пользователю условия использования результатов, предупреждать о рисках воспроизведения охраняемых объектов, фиксировать принадлежность прав на результат и существенные ограничения. Режим обучения на охраняемых произведениях, статус произведений, созданных при участии ИИ, критерий творческого вклада человека и ограничения исключительных прав должны регулироваться средствами гражданского права.
России нужен закон об ИИ. Но такой закон должен регулировать архитектуру человеческого контроля над цифровым агентом, а не воображаемую “личность” машины и не идеологическую благонадежность алгоритма. Суверенитет в области ИИ должен означать способность государства и общества сохранять контроль над критическими моделями, данными, вычислениями, решениями и последствиями, одновременно защищая гражданина от непрозрачной автоматизированной власти. Если эта логика будет выдержана, российская модель сможет стать самостоятельной и практически сильной. Если закон сведется к реестрам, допускам, ценностным формулам и закрытому мониторингу, он останется документом тревожной эпохи, в которой государство уже почувствовало масштаб ИИ, но еще не научилось говорить с ним языком точного права.
А.В. Новак, старший юрист юридической фирмы "Фокс лигал консалтинг", руководитель практики электронной коммерции и цифрового права.