Минцифры предложило ввести обязательную маркировку ИИ-контента с 1 сентября 2027 года
Закон будет распространяться как на компании, так и на физические лица
Документ опубликован на портале проектов правовых актов и распространяется как на компании, так и на физических лиц. Согласно инициативе Минцифры России, все аудиовизуальные материалы, созданные с использованием ИИ, должны сопровождаться специальным предупреждением. Оно должно быть представлено в формате, понятном человеку, а также в машиночитаемом виде.
Ответственность за маркировку будет возлагаться на владельцев ИИ-сервисов. Крупные платформы и соцсети также будут обязаны проверять наличие таких пометок. В случае их отсутствия площадки должны самостоятельно маркировать контент или удалять его.
Разработчиков ИИ обяжут исключать дискриминацию и блокировать вредоносный контент
Законопроект вводит дополнительные обязанности для разработчиков ИИ. В частности, они должны будут исключать дискриминационные алгоритмы и предотвращать создание противоправного контента.
Документ также закрепляет риск-ориентированный подход: требования к системам искусственного интеллекта будут зависеть от степени их влияния на пользователей и общество.
ИИ разделят на доверенные, национальные и суверенные модели
В проекте закона также предлагается ввести классификацию ИИ-моделей. Появятся понятия «доверенных», «национальных» и «суверенных» систем.
Доверенными будут считаться модели, соответствующие всем требованиям закона и включенные в специальный реестр. Национальные и суверенные модели — это решения, полностью разработанные в России с использованием отечественных данных.
Власти не ограничат технологии ИИ — под надзором окажется создаваемый ими контент
При этом, согласно предлагаемому законопроекту, требования будут распространяться не на сами технологии, а на продукты, созданные с их использованием. Это должно помочь регулировать отрасль, не замедляя её развития.
Как отмечают в Правительстве России, избыточное регулирование может негативно сказаться на российском рынке, доля которого составляет около 2% от мирового. При этом в документе говорится, что предлагаемые меры направлены на защиту пользователей от манипуляций и повышение прозрачности использования ИИ.
