За две недели до вступления в силу очередного этапа общеевропейского ИИ-закона EU AI Act были опубликованы подробные разъяснения основных его правил. В них вводится понятие ИИ-модели общего назначения — это модели, способные выполнять широкий спектр задач, вроде генерации текста, изображений или кода.
Если подобная модель выходит после 2 августа этого года, она должна быть приведена в соответствие требованиям EU AI Act. Модели, выпущенные ранее, должны быть адаптированы до 2 августа 2027-го.
Все создатели ИИ общего назначения обязаны опубликовать карту модели, раскрывающую данные, на которых она обучалась, тесты безопасности, которые она прошла, а также её энергопотребление. Эти правила распространяются не только на «изначальных» разработчиков, но и на тех, кто занимается дообучением нейросетей для коммерческого использования. А вот для создателей open-source-проектов введены некоторые послабления — если опубликован исходный код модели, то можно не отчитываться об энергопотреблении.
Также вводится понятие модели системного риска — это все нейросети, на обучение которых ушло более 10²⁵ FLOPs, а также ИИ-инструменты, признанные Еврокомиссией по ряду критериев (например, потенциальное влияние на здоровье). Такие модели будут проходить ежегодный системный аудит, а их авторы — представлять в Еврокомиссию подробный отчёт по энергопотреблению и схему реагирования на серьёзные инциденты, а также уведомлять о происшествиях в течение 72 часов.
Первые 12 месяцев Еврокомиссия будет ограничиваться предупреждениями, а со 2 августа 2026 года начнёт выписывать штрафы. Для «обычных» моделей они составят 15 млн евро или 3% оборота компании (в зависимости от того, какая цифра окажется больше), а для моделей системного риска — 35 млн евро или 7% оборота.

