Искусственный интеллект уже стал частью нашей повседневной жизни: от подборок на маркетплейсах до распознавания лиц в метро. Пока стартапы пишут нейросети, государство пытается понять, как всё это контролировать, не задушив инновации.
Примерная дата принятия закона — 1 сентября 2027 года, поэтому его текст ещё совсем сырой, но это не мешает предпринимателям начать готовиться к изменениям заранее.
Примерная дата принятия закона — 1 сентября 2027 года, поэтому его текст ещё совсем сырой, но это не мешает предпринимателям начать готовиться к изменениям заранее.
Суверенные нейросети и маркировка контента: что в новом законе
В 2026 году появился законопроект «Об искусственном интеллекте». Пока он только на первых стадиях рассмотрения, но уже оброс важными деталями, которые затронут разработчиков и бизнес.
Суверенные, национальные и доверенные модели
Законопроект вводит три ключевых понятия:
При этом функционирование трансграничных моделей (иностранных нейросетей — ChatGPT, Gemini, Claude и т. д.) «может быть запрещено или ограничено» в случаях, которые установит законодательство. О каких случаях идёт речь — пока непонятно.
- Суверенная модель ИИ. Разработка, обучение и эксплуатация проходят в России, силами российских граждан и компаний. Датасеты (наборы данных) тоже должны быть отечественными.
- Национальная модель ИИ. Можно использовать иностранные open-source решения и смешанные датасеты.
- Доверенная модель ИИ. Включена в специальный реестр, должна соответствовать требованиям безопасности, обрабатывать данные только на территории России и проходить проверку качества.
При этом функционирование трансграничных моделей (иностранных нейросетей — ChatGPT, Gemini, Claude и т. д.) «может быть запрещено или ограничено» в случаях, которые установит законодательство. О каких случаях идёт речь — пока непонятно.
🙅♂️Миф: запретят пользоваться иностранными нейросетями.
✓ Правда: на бизнес пока не повлияют разграничения по видам моделей. Вы всё ещё можете пользоваться любыми нейросетями, но остальные требования закона будут ко всем одинаковы.
Маркировка нейросетей и право клиента на «человека»
- Предустановка ИИ
Не исключено, что на все смартфоны и планшеты, продаваемые в России, обяжут ставить российские ИИ-сервисы (по аналогии с предустановкой приложений).
- Маркировка ИИ-контента
Если картинку, текст или видео сгенерировала нейросеть, пользователя об этом предупредят. Ответственность за маркировку будет ложиться на крупные соцсети (более 100 тысяч пользователей): они будут обязаны удалять ИИ-контент без маркировки или же проставлять её сами.
- Право отказаться от услуги с ИИ
Если вы не хотите общаться с ботом или получать услугу, основанную на ИИ, вам обязаны предоставить альтернативу.
Но это право будет закреплено только в случаях, которые определит Правительство. Возможно, речь идёт о чувствительных темах: медицина, финансы, право.
🙅♂️ Миф: любой пользователь любого сервиса сможет отказаться от общения с ИИ-ассистентом и позвать человека.
✓ Правда: в законе пропишут конкретные темы и сферы, в которых необходимо предоставлять человеческую альтернативу чат-боту.
Ответственность и авторские права при использовании ИИ
• Обжалование решений с ИИ
Граждане смогут досудебно обжаловать решения и действия госорганов, региональных властей и организаций с госучастием, если те были приняты с использованием ИИ. А также получат право на компенсацию вреда.
Разработчикам разрешат использовать для обучения модели книги, фильмы, изображения (даже защищённые авторским правом) без разрешения правообладателя.
Но есть важное условие: пользователь не должен видеть исходный контент. А вот персональные данные, налоговую тайну и частные переписки использовать для обучения ИИ нельзя.
Граждане смогут досудебно обжаловать решения и действия госорганов, региональных властей и организаций с госучастием, если те были приняты с использованием ИИ. А также получат право на компенсацию вреда.
- Обучение на авторских материалах
Разработчикам разрешат использовать для обучения модели книги, фильмы, изображения (даже защищённые авторским правом) без разрешения правообладателя.
Но есть важное условие: пользователь не должен видеть исходный контент. А вот персональные данные, налоговую тайну и частные переписки использовать для обучения ИИ нельзя.
🙅♂️ Миф: вся ответственность за результат с ИИ ляжет на пользователя.
✓ Правда: владельцы сервисов и разработчики моделей отвечают за результат, созданный с помощью ИИ, если знали или должны были знать о возможности противоправного результата.
Чек-лист для бизнеса: как адаптироваться к новым правилам
Законопроект планируют принять 1 сентября 2027 года. Время для подготовки ещё есть, но лучше начать продумывать стратегию уже сейчас.
- Прозрачность. Пользователя необходимо будет уведомлять, если товар или услуга продаются с применением ИИ. Чтобы избежать рисков, подготовьте внутренние документы и пропишите, где ИИ используется лишь как вспомогательный инструмент, а где прямо влияет на принятие решений (подбор персонала, аналитика).
- Маркировка. Если вы генерируете контент через нейросеть, его нужно будет помечать. При этом конкретных критериев, как распознать ИИ, пока нет и технически это вряд ли возможно.
- Авторские права. Проверьте договор с владельцем ИИ-сервиса. Если там ничего не сказано об авторских правах, то по общему правилу автором ИИ-контента признаётся пользователь, если его творческий вклад очевиден (критериев очевидности пока нет).
Полезные ссылки: кто в России отвечает за регулирование ИИ
Вопрос ИИ сейчас регулируют два закона:
→ Указ Президента № 490
→ Национальная стратегия развития ИИ до 2030 года.
В этих документах прописали определения: что такое ИИ, технологии ИИ, большие генеративные и фундаментальные модели, «сильный ИИ» (который взаимодействует с человеком и сам адаптируется к окружающим условиям).
→ Указ Президента № 490
→ Национальная стратегия развития ИИ до 2030 года.
В этих документах прописали определения: что такое ИИ, технологии ИИ, большие генеративные и фундаментальные модели, «сильный ИИ» (который взаимодействует с человеком и сам адаптируется к окружающим условиям).
Какие государственные органы напрямую занимаются ИИ?
- Минцифры — головной офис. Внутри ведомства есть Департамент развития искусственного интеллекта и больших данных, который курирует федеральный проект «Искусственный интеллект».
- Планируется создание Оперативного штаба по развитию ИИ (указ подписан в феврале 2026 года) для быстрого реагирования и координации.
- Региональные комиссии. Главам регионов рекомендовали до 1 июня 2026 года создать свои межведомственные комиссии по ИИ. Теперь и на местах будут свои «ии-надзиратели».
- Национальный портал в сфере ИИ — там можно посмотреть, как власти отчитываются о прогрессе в различных регионах.
Если ваш бизнес связан с нейросетями, обработкой данных или даже просто использует чат-ботов, следить за изменениями в законах придётся. Благо, пока есть время: массовые требования начнут действовать с 2027 года.
А мы в Кнопке следим за технологиями за вас, чтобы вы могли заниматься бизнесом, а не изучать кодексы. Если нужна помощь с учётом или консультация юриста — обращайтесь по телефону 88003337826 или оставляйте заявку в форме ниже.
Над материалом работали
ответим на человеческом!
Остались вопросы?