Европарламент и Совет ЕС предварительно согласовали основные пункты готовящегося к принятию AI Act — закона об искусственном интеллекте. Документ устанавливает требования по безопасности к разработчикам ИИ-моделей, а также вводит крупные штрафы за нарушения.
ИИ-системы отнесены к нескольким группам риска:
— минимальный риск. В эту категорию попадает подавляющая часть систем (рекомендательные системы, спам-фильтры на основе ИИ) — эти системы признаются либо полностью безопасными, либо представляющими минимальную угрозу для пользователей;
— высокий риск. К таким системам отнесены, например, определённая КИИ в сфере водоснабжения, поставок газа и электричества, медицинские устройства, а также системы, задействованные в охране границ, соблюдении общественного порядка, отправлении правосудия, «демократических процессах», биометрической идентификации, категоризации и распознавании эмоций. Подобные ИИ-системы обязаны соблюдать жёсткие требования в таких вопросах, как система минимизации рисков, «массивы данных высокого качества», регистрация операций, подробная документация, чёткая пользовательская информация, надзор со стороны человека, высокая эксплуатационная надёжность, точность и кибербезопасность;
— неприемлемый риск. Сюда включены ИИ-системы или приложения, которые манипулируют поведением человека с целью ограничить свободный выбор пользователей, например, игрушки с голосовым помощником, «поощряющие опасное поведение детей», или системы, которые допускают составление социальных рейтингов правительствами или компаниями, а также определённые виды прогностической деятельности полиции. Такие системы подлежат полному запрету (за некоторыми исключениями);
— риск для открытости. В данный список включены в том числе чат-боты. В документе указано, что пользователи должны быть информированы о том, что взаимодействуют с машиной. Дипфейки и другой сгенерированный ИИ контент следует маркировать соответствующим образом, граждан необходимо информировать в случае задействования систем биометрической категоризации или распознавания эмоций. Вдобавок разработчики ИИ-систем должны будут создавать их таким образом, чтобы «синтетический текстовый, графический, аудио- и видеоконтент содержал маркировку в машиночитаемом формате, а также распознавался в качестве искусственно сгенерированного или манипулятивного».
Документ, помимо прочего, вводит специальные правила для ИИ-моделей общего назначения (General Purpose AI Models). Для каждой высокопроизводительной модели, способной нести системный риск, предусматриваются дополнительные юридические обязательства, относящиеся к сфере управления рисками, мониторинга значимых инцидентов, анализа модели, состязательного тестирования.
Вместе с тем AI Act не будет применяться в случае, если он негативно повлияет «на компетенции какой-либо страны ЕС в области национальной безопасности или уполномоченной в этом вопросе организации». Из-под действия закона также выведены системы, которые используются только в военных и оборонных целях, в научной деятельности, а также людьми в непрофессиональной деятельности.
Для нарушителей AI Act предусмотрены оборотные штрафы от 7,5 до 35 миллионов евро. За имплементацию положений закона на национальных уровнях будут отвечать надзорные органы стран-членов ЕС, координировать их усилия станет специально создаваемый при Еврокомиссии орган — Управление по ИИ (AI Office).
Теперь соглашение предстоит оформить Европарламенту и Совету ЕС формально. Закон вступит в силу через 20 дней после публикации текста в официальном журнале Евросоюза. Положения AI Act начнут применяться через два года после вступления закона в силу. При этом прописанные запреты начнут действовать уже через шесть месяцев, а нормы в отношении ИИ-моделей общего назначения — через год.