14 ноября 2025 года в Государственную Думу внесли законопроект, который может кардинально изменить то, как мы воспринимаем видео в интернете. Группа депутатов во главе с Дмитрием Александровичем Гусевым, первым заместителем руководителя фракции "Справедливая Россия — За правду", предложила ввести обязательную маркировку всех видеоматериалов, созданных с помощью искусственного интеллекта. Это не просто техническая деталь — это попытка остановить эпидемию дипфейков, которые уже сейчас подменяют реальность. И если закон примут, то каждый ролик, сгенерированный ИИ, должен будет нести на себе четкую, неустранимую метку — иначе последует штраф. До полумиллиона рублей для компаний. Да, вы не ослышались.
Что именно предлагают?
Законопроект вносит поправки в Федеральный закон №149-ФЗ "Об информации, информационных технологиях и о защите информации" и добавляет новую статью в Кодекс об административных правонарушениях. Суть проста: каждый видеоролик, созданный ИИ — будь то синтез голоса, подмена лица или полная генерация сцены — должен содержать две метки. Первая — видимая. На протяжении всего просмотра на экране должен быть текст: "Создано с использованием искусственного интеллекта" или "Сгенерировано ИИ". Вторая — невидимая, но неуничтожимая. Машиночитаемая метка в метаданных файла, которая сохраняется даже при копировании, редактировании, изменении формата. Даже если вы скачаете видео, обрежете его, загрузите в Telegram — метка останется. Это ключевое отличие от всех предыдущих инициатив. Не просто "поставьте лейбл" — а сделайте его неотъемлемой частью файла.
Обязанность по маркировке ложится на владельцев платформ: YouTube, VK, Telegram, YouTube, Odnoklassniki и все остальные, где размещают видео. Не на авторов, а на тех, кто дает им площадку. Это логично — ведь именно платформы контролируют распространение. А вот пользователь, который просто пересылает ролик, не будет нести ответственность. Пока.
Штрафы — не пустые слова
За нарушение правил — деньги. Не просто "предупреждение", а конкретные цифры. Для обычных граждан — от 10 000 до 50 000 рублей. Для чиновников и руководителей — от 100 000 до 200 000. А вот компании, которые не отслеживают контент на своих сервисах, могут получить штраф до 500 000 рублей. Это не просто "пеня" — это серьезный финансовый удар. Особенно для небольших стартапов и региональных хостингов. Вспомните, как в 2022 году штрафы за неудаление запрещенного контента заставили закрыться десятки малых платформ. Здесь — та же логика, только с ИИ.
"Необходимость регулирования обусловлена тем, что современные ИИ-системы способны создавать визуальные материалы, практически неотличимые от реальных. Отсутствие маркировки может привести к масштабным манипуляциям и подмене фактов", — заявил Дмитрий Александрович Гусев в интервью RT. Он упомянул конкретные случаи: фейковые видео с высказываниями губернаторов, министров, даже военных командиров — всё это уже появлялось в мессенджерах и соцсетях перед выборами и во время социальных напряжений. В 2024 году, по данным ФСБ, зафиксировано более 230 случаев дипфейков с политическим подтекстом — и это только те, что обнаружили.
Почему сейчас? И почему именно так?
Законопроект не появился на пустом месте. В 2023 году в России зафиксировали рост генеративного ИИ на 340% — и это только легальные платформы. В 2024-м появилось более 1,2 млн синтетических видео в рунете. А в прошлом году — первый случай, когда фейковое видео с "заявлением" министра обороны о мобилизации вызвало панику в одном из регионов. Люди сбегали с дач, звонили в полицию. Ситуация вышла из-под контроля — и только оперативная проверка предотвратила катастрофу.
Также стоит понимать: это не просто борьба с фейками. Это шаг к цифровому суверенитету. Пока Запад обсуждает этические рамки ИИ, Россия пытается создать жесткую правовую модель — где каждое изображение имеет происхождение, как паспорт. Инициатива разработана совместно депутатами от ЛДПР и "Справедливая Россия — За правду". Обе фракции, несмотря на разные взгляды, сходятся в одном: информационная безопасность — не вопрос политики, а вопрос выживания.
Что дальше?
Сейчас документ передан в профильный комитет Госдумы по информационной политике. Первое чтение не состоится раньше декабря 2025 года — это даст время экспертам, юристам и IT-компаниям подготовить замечания. Но уже сейчас понятно: если закон примут, то в 2026 году все российские платформы должны будут внедрить системы автоматической маркировки. Это потребует инвестиций — и, возможно, приведет к росту цен на хостинг. А для иностранных сервисов, которые не будут соблюдать правила, могут ввести блокировки. Как в случае с TikTok в 2023 году.
Одна из главных проблем — техническая. Как ИИ-система узнает, что видео создано с ее помощью, если оно прошло через десяток редакторов? Как определить "частичную генерацию" — например, если в реальном видео заменили только лицо? В законопроекте эти нюансы оставлены на усмотрение экспертов. Это звучит как уязвимость. Но, возможно, именно это и есть стратегия: оставить пространство для адаптации, а не жестко прописать все сценарии.
Как это повлияет на обычных людей?
Представьте: вы смотрите видео с речью депутата, который якобы говорит о повышении пенсий. На экране — четкая надпись: "Сгенерировано ИИ". Вы понимаете: это не правда. А если вы видите видео с новостью о землетрясении в Сибири — и надпись отсутствует? Тогда вы можете доверять. Это не идеально, но это первый шаг к прозрачности. Особенно для пожилых людей, которые не разбираются в технологиях. Их теперь защищает не только здравый смысл — а закон.
Frequently Asked Questions
Как будет определяться, что видео создано ИИ?
Закон не требует от платформы автоматически распознавать ИИ-контент. Вместо этого — обязанность владельцев платформ внедрить системы, которые фиксируют происхождение видео на этапе загрузки. Если пользователь загружает файл, созданный через MidJourney или Sora, он должен сам указать это. Платформа же обязана проверять метаданные и добавлять свою маркировку, если она отсутствует. Ошибки возможны — но ответственность лежит на владельце сервиса.
Будут ли штрафы за использование ИИ в личных целях?
Нет. Штрафы касаются только тех, кто распространяет ИИ-видео через публичные платформы. Если вы сделали забавное видео с лицом друга в стиле ИИ и отправили его другу в WhatsApp — это не нарушение. Но если вы загрузите его в Telegram-канал с 100 тысячами подписчиков — платформа получит штраф, если не проставит метку. Ответственность — за распространение, а не за создание.
Как это повлияет на креативных авторов и художников?
Для авторов, использующих ИИ как инструмент, это не проблема — только дополнительный шаг при публикации. Но для тех, кто создает искусство, где граница между реальным и синтетическим стерта, это может ограничить выразительность. Например, если художник хочет, чтобы зрителю было неясно, реальное ли это изображение — он будет вынужден снять метку, что противоречит замыслу. Это вызовет споры в культурной среде — особенно в кино и анимации.
А если кто-то удалит метку — как это отследить?
Машиночитаемая метка должна сохраняться даже при конвертации в другой формат. Это достигается за счет встраивания данных в бинарные структуры видео — не в заголовки, а в глубокие слои. Платформы будут использовать специальные сканеры, которые проверяют целостность метки при каждом загрузке. Если метка повреждена или отсутствует — система автоматически добавляет её, предупреждая пользователя. Удаление метки станет технически сложнее, чем обрезать кадр.
Будет ли этот закон применяться к аудио и тексту?
На данный момент — только к видео. Но в пояснительной записке к законопроекту прямо указано: "в будущем возможно расширение на аудио- и текстовые форматы". Уже в 2026 году планируется подготовить аналогичный закон для голосовых сообщений и генеративного текста — особенно в контексте электронных СМИ и чат-ботов. Это логичное продолжение: если видео — это глаза, то голос — это уши. И оба могут обмануть.
Что скажут международные компании вроде Google или Meta?
Они, скорее всего, будут соблюдать правила — иначе рискуют потерять доступ к российскому рынку. В 2024 году Meta уже внедрила аналогичную систему маркировки в ЕС. Для них это не новость — просто другая юрисдикция. Но для малых российских сервисов — это серьезный вызов. Им придется либо вкладываться в технологии, либо уйти с рынка. В этом и есть политический подтекст: закон не только борется с фейками — он укрепляет цифровую независимость страны.