Активное развитие нейросетей привело к тому, что найти разницу между ИИ контентом и работой человека становится все сложнее. Когда потребитель не может отличить реальное видео от сгенерированного, а консультацию живого специалиста от ответа алгоритма, возникают риски манипуляций и дезинформации.
Государство начинает активно регулировать сферу. Весной 2026 года Минцифры представило проект федерального закона «Об основах государственного регулирования сфер применения технологий искусственного интеллекта в Российской Федерации». Этот документ закладывает основы прозрачного использования ИИ в РФ.
В статье разберем, как новый закон о маркировке ИИ контента изменит работу бизнеса, что именно придется помечать и как подготовиться к изменениям.
Закон о применении ИИ
18 марта 2026 года законопроект был вынесен на публичное обсуждение, которое завершилось 15 апреля. Далее последуют межведомственное согласование, внесение в Госдуму и три чтения. Это рамочный документ, который определяет правила для всех участников рынка: от крупных корпораций-разработчиков до небольших компаний, использующих готовые ИИ-сервисы в своей работе.
Закрепляются конкретные понятия, связанные с ИИ:
- Искусственный интеллект — это комплекс решений, имитирующий когнитивные функции человека, включая самообучение и поиск решений без заранее заданного алгоритма.
- Модель ИИ — это программа, обученная на наборах данных для выполнения интеллектуальных задач, принятия решений или прогнозирования.
- Синтезированный контент — это любой аудио-, видео- или текстовый материал, созданный с применением таких технологий.
Нормы должны вступить в силу с 1 сентября 2027 года, окончательная дата может сдвинуться в пределах нескольких месяцев. За полтора года бизнесу нужно адаптировать свою работу под новые правила.
Кого коснется закон
Действие закона распространяется на всех физических и юридических лиц, которые занимаются разработкой, внедрением или применением технологий ИИ на территории России. По оценкам Минцифры, новые требования затронут более восьми миллионов компаний.
Закон основывается на принципе градации рисков: регулирование не будет одинаковым для всех. Чем выше степень автономности ИИ и чем сильнее его влияние на юридически значимые решения, тем строже требования к его эксплуатации и отчетности. Это означает, что обычный генератор картинок для постов будет требовать только маркировки, в то время как ИИ-модель, принимающая решения о найме сотрудников или распределении финансовых ресурсов, попадет под более пристальный надзор.
В проекте говорится о важности технологического суверенитета. Поддержку в первую очередь получат «суверенные» и «национальные» модели, которые разработаны в России. Это создает долгосрочную актуальность использования отечественных решений, таких как GigaChat или YandexGPT, так как они априори соответствовуют требованиям безопасности.
Как маркировать ИИ контент
После вступления закона в силу, ИИ контент должен содержать двойную маркировку: для человека и для «машины».
- Формат для человека. Предупреждение должно быть размещено «внутри» синтезированного материала. Это может быть водяной знак на фото, плашка в углу видео или голосовое вступление в аудиозаписи.
- Формат для машины. Информация о применении ИИ должна быть прописана в метаданных файла. Это позволит поисковым роботам и фильтрам социальных сетей автоматически распознавать сгенерированный контент.
- Синхронность. Предупреждение осуществляют тем же способом, которым предоставляют материал. Если вы транслируете аудио, маркировка должна звучать; если показываете текст, то и маркировку нужно напечатать.
Что подлежит маркировке
Законопроект не требует помечать каждое действие нейросети, но выделяет зоны, где маркировка обязательна. К ним относятся:
- Аудиовизуальный контент. Если вы создали с помощью ИИ аудио, видео, изображение или «иной контент», вы обязаны разместить информационное предупреждение.
- Процесс продажи и оказания услуг. Закон обязывает информировать потребителя, если продажа товара или оказание услуги происходят с использованием ИИ без участия человека в принятии решений.
- Автономные решения. Вы обязаны уведомить гражданина, если в его отношении принимается решение без участия человека, которое затрагивает его права, обязанности или свободы.
Чтобы эти нормы не казались абстрактными, рассмотрим примеры, с которыми может столкнуться бизнес после вступления закона в силу.
Пример 1. Рекламное агентство и цифровые аватары
Небольшое агентство создает серию коротких роликов для клиента. Чтобы сэкономить на аренде студии и гонорарах актеров, команда использует нейросеть для генерации фотореалистичного аватара и синтеза его речи.
Такой ролик должен содержать маркировку и в визуальном ряде, и в метаданных файла. Если агентство передаст клиенту ролик без пометки, а тот разместит его в соцсетях, ответственность ляжет на обе стороны в зависимости от условий договора.
Пример 2. Интернет-магазин с умным калькулятором
Владелец магазина строительных материалов внедряет на сайт ИИ-ассистента. Бот отвечает на вопросы, самостоятельно рассчитывает смету, применяет персональные скидки и выставляет счет.
Поскольку консультация и расчет оказываются без участия человека, закон обязывает магазин проинформировать об этом покупателя. Посетитель должен понимать: цену и условия ему предложил алгоритм. Более того, в ряде случаев бизнес будет обязан предоставить клиенту возможность отказаться от ИИ и получить консультацию у живого менеджера.
Пример 3. HR и автоматический отбор кандидатов
Компания использует ИИ-сервис для первичного скрининга резюме. Алгоритм анализирует опыт кандидатов и самостоятельно принимает решение, кого пригласить на интервью, а кому отправить автоматический отказ.
Это случай принятия автономного решения, затрагивающего интересы гражданина — право на труд. Работодатель обязан уведомить кандидата о том, что решение по его резюме принимается искусственным интеллектом.
Ответственность и штрафы
Законопроект вводит концепцию разделенной ответственности. Это означает, что в случае нарушения закона отвечать будет не только тот, кто нажал кнопку «Сгенерировать», но и те, кто создал и предоставил этот инструмент.
Кто несет ответственность
Ответственность ложится на плечи разработчиков, операторов систем, владельцев сервисов и обычных пользователей.
- Разработчики и владельцы сервисов несут ответственность, если они заранее знали, что их ИИ-модель может выдать противоправный результат. Например, если нейросеть систематически генерирует дискриминационный контент, а владелец сервиса не внедрил механизмы фильтрации, он становится нарушителем.
- Социальные сети и видеохостинги с суточной аудиторией более 100 тысяч пользователей обязаны проверять наличие маркировки в загружаемом контенте. Если метки нет, площадка должна либо поставить ее на основе анализа, либо удалить материал.
- Пользователи несут персональную ответственность, если нарушение закона стало результатом их умышленных действий или нарушения правил использования сервиса. Это касается случаев, когда пользователь намеренно обходит встроенные фильтры безопасности для создания запрещенного материала.
Удаление маркировки — отдельное нарушение. Лица, которые намеренно стирают или вырезают информацию о применении ИИ из состава материала, несут административную ответственность.
Виды наказаний
Законопроект носит рамочный характер, поэтому конкретные суммы штрафов будут прописаны в Кодексе об административных правонарушениях (КоАП РФ) и Уголовном кодексе (УК РФ). Предполагается, что за несоблюдение правил маркировки и информирования будут применяться административные санкции. Мониторингом рынка и выявлением нарушителей будет заниматься Роскомнадзор.
Важный пункт — статья 11.3, которая описывает условия освобождения от ответственности. Разработчик или владелец сервиса не будет наказан, если докажет, что предпринял все меры для предотвращения инцидента и строго соблюдал технические регламенты. Это означает, что выбор надежного подрядчика и официальных ИИ-инструментов скоро станет вопросом безопасности. Работа с «самописными» или сомнительными сервисами повышает риски получить штраф.
.png?x-image-process=image%2Fauto-orient%2C1%2Fresize%2Cm_lfit%2Cw_1920%2Fsharpen%2C100%2Fformat%2Cwebp%2Fmarker%2Cu_plus)
