Рабочая группа, включающая юристов, консультантов и представителей ИИ-компаний, разработала законопроект «О регулировании систем искусственного интеллекта (ИИ) в России». Документ обсуждался на заседаниях в Госдуме, «Деловой России» и на отраслевых площадках.
Законопроект направлен на реализацию Национальной стратегии развития ИИ до 2030 года, утверждённой в феврале 2024 года. Зампред комитета по информполитике, член рабочей группы по ИИ в Госдуме Андрей Свинцов сообщил, что по поручению председателя нижней палаты парламента Вячеслава Володина создана рабочая группа «по разработке всего, что связано с законодательством в области ИИ». По его словам, сейчас законодательные инициативы «всерьёз не рассматриваются»: группа создана для того, чтобы «внимательно, детально изучить все запросы от различных отраслей».
Свинцов отметил, что в ближайшие месяцы могут появиться несколько инициатив, «которые точечно будут регулировать какие-то отраслевые запросы, вводить какие-то пилотные зоны или пилотные режимы», однако, появления законопроекта, который охватит всю сферу деятельности ИИ, в этом году он не ожидает. Среди направлений, которые будут регулироваться в первую очередь, парламентарий назвал маркировку. В аппарате правительства и Минцифры сообщили, что пока не получали этот проект на рассмотрение, но выразили готовность изучить его в случае поступления.
Документ определит ключевые понятия — искусственный интеллект, технологии и системы ИИ, а также роли разработчика, оператора и пользователя. Особое внимание уделено маркировке: все ИИ-системы, взаимодействующие с пользователями, должны иметь понятное и легко идентифицируемое обозначение.
Законопроект вводит четырёхуровневую классификацию по рискам: от минимального до неприемлемого. Последним предлагается запретить разработку и эксплуатацию. Системы с высоким риском — в сфере здравоохранения, транспорта, финансов и правоохранительной деятельности — должны будут пройти обязательную регистрацию и сертификацию. В числе требований — страхование гражданской ответственности операторов таких систем.
Авторы документа также предлагают закрепить ответственность за причинение вреда жизненно важным интересам. Однако в тексте предусмотрены исключения, при которых разработчики и операторы смогут избежать наказания, если докажут соблюдение всех норм и правил.
Один из наиболее чувствительных вопросов касается авторских прав на результат, созданный с применением ИИ. Если творческий вклад человека очевиден, права закрепляются за ним. В остальных случаях — за оператором ИИ-системы на срок до 50 лет.
Если проект будет одобрен, на исполнение его требований разработчикам и операторам ИИ-систем будет отведён один год, а сертификация ранее созданных систем с высоким уровнем риска должна быть завершена за два года.
Источник РБК в одной из ИИ-компаний отмечает, что ранее в правительстве считали регулирование ИИ преждевременным. Вице-премьер Дмитрий Григоренко в феврале 2024 года заявлял, что такое регулирование не планируется как минимум в течение двух лет. По мнению источника, инициативы по саморегулированию со стороны бизнеса уже внедряются, а избыточное регулирование может замедлить развитие отрасли и усилить технологическое отставание. В пример он привёл ЕС, где после принятия закона об ИИ некоторые компании начали сокращать присутствие в регионе.
По словам директора по цифровым технологиям «Ростелекома» Романа Хазеева, мировой опыт пока не сформировал устойчивую практику по определению ответственности в сфере нейросетей и дипфейков. Он подчеркнул, что регулирование должно вводиться после стабилизации процессов и появления устойчивой проблематики.