Профильная рабочая группа, в которую вошли представители индустрии искусственного интеллекта, юристы и консалтинговые организации, разработала проект закона, регулирующего ИИ в России. Об этом сообщает РБК со ссылкой на источники, знакомые с инициативой.

Наталья Селиверстова /РИА Новости
Документ под названием «О регулировании систем искусственного интеллекта (ИИ) в России» уже обсуждался в рамках заседаний Госдумы, в объединении «Деловая Россия», а также на различных отраслевых платформах.
Как пояснил зампред комитета по информационной политике Андрей Свинцов, в Госдуме по поручению Вячеслава Володина действует рабочая группа, которая занимается сбором предложений для формирования законодательства в этой сфере. Однако, по его словам, «всерьез» пока никакие инициативы не рассматриваются.
«Рабочая группа создана, для того чтобы проработать и внимательно, детально изучить все запросы от различных отраслей», — подчеркнул он.
В ближайшие месяцы должны появиться несколько инициатив, «которые точечно будут регулировать какие-то отраслевые запросы, вводить какие-то пилотные зоны или пилотные режимы», — добавил Свинцов. При этом он отметил, что полноценного закона, регулирующего всю отрасль ИИ, в этом году ожидать не стоит.
РБК ознакомился с копией документа. В нем, помимо прочего, предлагается:
- ввести четкие определения для понятий «искусственный интеллект», «технологии ИИ» и «системы ИИ»;
- установить обязательную маркировку ИИ-систем, которые взаимодействуют с пользователями. Такая маркировка должна быть «явной, недвусмысленной и легко идентифицируемой»;
- классифицировать ИИ-системы по степени риска: от минимального до неприемлемого.
Под запрет, согласно проекту, попадают технологии, отнесённые к категории с неприемлемым уровнем риска — в том случае, если они могут представлять угрозу безопасности личности, общества и государства, а также нарушать основные права и свободы граждан.
Кроме того, законопроектом предлагается ввести обязательную регистрацию и сертификацию ИИ-систем с высоким риском — в частности, в здравоохранении, правоохранительной сфере, транспорте и финансах. Для систем с ограниченным уровнем риска будет предусмотрена добровольная сертификация и внутренний контроль качества.
Разработчики и операторы будут нести ответственность за вред, причинённый ИИ, однако документ содержит ряд исключений. Так, ответственность с разработчика может быть снята, если он предпринял все необходимые меры для предотвращения ущерба. Оператор также освобождается от ответственности, если докажет, что вред возник по вине разработчика или пользователя.
Предусмотрен переходный период: при принятии закона в текущем виде разработчики и операторы получат один год на выполнение требований, а уже существующие ИИ-системы высокого риска должны будут пройти сертификацию в течение двух лет.
При этом в аппарате правительства и Минцифры сообщили, что пока не получали законопроект на рассмотрение, но готовы изучить его, если он поступит.
Ранее вице-премьер Дмитрий Григоренко отмечал, что законодательное регулирование ИИ в ближайшие два года не планируется. Это подтверждают и представители ИТ-компаний, добавляя, что «регулирование преждевременно».
Напомним, в марте 2024 года Европарламент утвердил первый в мире закон, регулирующий использование ИИ.