«Технологии доверенного искусственного интеллекта» — 2025
Уязвимости не исключены, но достойный ответ на вызовы необходим
20 мая в Москве в пространстве кластера «Ломоносов» прошёл III форум «Технологии доверенного искусственного интеллекта». В нём приняли участие представители профильных государственных министерств и ведомств, ведущих отечественных научно-исследовательских центров и профессиональных объединений в сфере технологий доверенного ИИ, российских технологических лидеров, реализующих успешные проекты в области ИИ, и крупнейших компаний в сфере информационной безопасности.
Ключевая сессия, которую модерировал директор ГК «Солар» Игорь Ляпунов, была посвящена изменениям и прогрессу в обсуждаемой сфере за прошедший год. Своё вступительное слово он начал с рассказа о довольно тревожных результатах исследования компании OpenAI, согласно которым уже в ближайшие годы будет создан суперинтеллект — Artificial Superintelligence (ASI), сравнимый с мощью человеческого мозга. Появление такого колоссального потенциала для экономики и связанная с ним конкуренция между передовыми державами таят в себе риски выхода ИИ из-под контроля.
Свою точку зрения на роль ИИ в развитии экономики и доверия к нему представила начальник Управления Президента РФ по развитию ИКТ и инфраструктуры связи Татьяна Матвеева. Прежде всего, согласно принятой Стратегии развития ИИ до 2030 года, для задач государственного управления в сферах, где может быть нанесён ущерб безопасности страны в целом, следует использовать технологии доверенного ИИ. В их основе должны лежать такие принципы, как объективность, недискриминация и этичность (исключено нанесение вреда человеку). Также не допускается нарушение основополагающих прав и свобод человека, нанесение ущерба интересам государства и общества. Сюда можно добавить эффективность, надёжность, отказоустойчивость и объяснимость технологий, завершила своё выступление спикер.
Как показал недавний социологический опрос трёх тысяч россиян, 96% респондентов слышали об искусственном интеллекте, но объяснить, что это такое, смогли только 42%. Опыт пользования продуктами ИИ имеют 69%, но общий уровень доверия к нему составляет лишь 38%. Если говорить по видам деятельности, то больше доверяют ИИ в сферах развлечений, услуг, промышленности и меньше — в здравоохранении, экономике и финансах, образовании, госуправлении и оказании психологической помощи. По словам Татьяны Матвеевой, доверие к ИИ формируется благодаря тому, что оптимизируется работа и улучшается качество жизни. К обратному эффекту приводят опасения, связанные с утечками персональных данных и использованием технологий в корыстных целях.
Если мы хотим стимулировать доверие к технологиям ИИ, то можно двигаться по нескольким направлениям. Роль государства здесь видится в прямом нормативно-правовом регулировании, в системе стандартизации и сертификации, единых подходах к оценке параметров технологий (например, бенчмарки). Идёт процесс саморегулирования: так, был создан Кодекс этики в сфере ИИ, к которому присоединилось более 900 организаций. Люди должны видеть эффект от внедрения технологий ИИ. Как отметила Матвеева, на региональном уровне реализуется более 500 решений, начиная от различных чат-ботов и заканчивая прогнозами чрезвычайных ситуаций, и они показывают «высокую степень повышения результативности работы, снижение нагрузки на людей, увеличение эффективности и повышение предсказуемости».
Заместитель министра цифрового развития, связи и массовых коммуникаций РФ Александр Шойтов рассказал о том, что Академией криптографии в 2024 году разработаны и направлены в ФОИВ и заинтересованные организации «Предложения в проект требований по обеспечению ИБ информационных систем, реализующих технологии ИИ». Также Академия совместно с Консорциумом исследований безопасности технологий ИИ разрабатывает профильную матрицу угроз для объектов КИИ и ГИС и приступает к её отработке с пилотными регионами России. Шойтов на слайдах представил вниманию участников модель тестирования технологий ИИ без использования в КИИ и модель для КИИ, заслуживающей высокую степень доверия.
Есть конкретные риски, связанные с использованием передовых технологий: потеря контроля над критическими инфраструктурами, финансовые потери из-за ошибок ИИ, потеря контроля над личной информацией, манипуляция сознанием и поведенческая реклама, опасность автоматизированных решений без возможности апелляции и т. д. Проблемы информационной безопасности и искусственного интеллекта имеют чисто технологический характер, считает Шойтов. Да, работа в сфере ИБ более понятна и измерима по сравнению с ИИ, но угрозы в обеих сферах взаимосвязаны, и решать эти проблемы придётся одновременно.
Модератор Игорь Ляпунов в ходе дискуссии не раз прибегал к помощи нейросети DeepSeek, которая генерировала довольно провокационные вопросы и темы. Если отдельные алгоритмы способны заменить до 40% рабочих мест, то как быть с безработицей? Насколько опасно использовать зарубежные фреймворки в российских ИИ-разработках? Не усиливает ли внедрение ИИ разрыв между Москвой и регионами? Были также «подсказки» от DeepSeek, как возможная «когнитивная деградация», экзистенциальные риски для малых культур, коллапс образования из-за появления ИИ-тьюторов и создание персонализированных биологических угроз.
Не стоит «обожествлять искусственный интеллект и говорить, что он всё придумал», предложила Наталья Касперская, президент ГК InfoWatch. Ни в коем случае нельзя впускать ИИ в школьные стены, но главная проблема — это всё же «вторичность отечественного ИИ». При условии использования таких фреймворков, как PyTourch и TensorFlow, мы не получим доверенный ИИ. Эта вторичность на самом деле «даёт возможность закладок, внешнего управления и навязывания чужой повестки», считает Касперская.
Большую опасность представляет «замена коммуникации граждан на общение с искусственным интеллектом». Часть рисков мы сегодня видим, но многие нам не ясны, так как это новая технология и у человечества нет особого опыта её применения. По мнению Касперской, идёт «тихое вползание ИИ в нашу жизнь» и о рисках говорят значительно меньше, чем о преимуществах. Должна быть государственная структура, ответственная за контроль над ИИ, необходимо заниматься регулированием, «пока не стало слишком поздно», заключила Касперская.
В ходе ключевой дискуссии выступили ещё несколько спикеров. Директор Департамента стратегического развития и инноваций Минэкономразвития Оксана Сотникова рассказала о проведённом в 2024 году форсайте для определения приоритетов развития ИИ. Были выделены несколько важных направлений: обеспечение соответствия ценностям человека и общества, объяснимость, обеспечение безопасности разработки и эксплуатации, а также защита от взлома. Директор по информационным и цифровым технологиям ГК «Росатом» Евгений Абакумов сделал акцент на практической стороне вопроса: какой объём электроэнергии потребует внедрение технологий ИИ и не понадобится ли введение дополнительных мощностей?
Как отметил генеральный директор Ассоциации ФинТех Максим Григорьев, финансовый сектор одним из первых научился прагматично и практически применять искусственный интеллект: для скоринга, для управления торговыми стратегиями, противодействия мошенникам и т. д. Представители финансового рынка договорились с Альянсом в сфере ИИ о создании отраслевого клуба, который обеспечит взаимодействие, обмен информацией и формирование необходимых отраслевых практик. Дмитрий Служеникин рассказал о работе, проведённой за прошедший год в Консорциуме исследований безопасности технологий ИИ. Усилия направлены на то, чтобы «норматив не выходил пустой» и все понимали, как на деле его выполнять.
Достичь состояния, когда нет никаких уязвимостей, невозможно, но обеспечить нужный уровень доверия необходимо, полагает директор ИСП РАН Арутюн Аветисян. «Я точно не луддит. Пчёлы против мёда — это не мой стиль, — заметил спикер. — Я сам занимаюсь искусственным интеллектом и его внедрением». Регуляторика нужна, но такая, чтобы не препятствовала развитию технологий. В заключение дискуссии Игорь Ляпунов охарактеризовал ИИ как технологию, которая врывается без спроса в нашу жизнь. И следует воспринимать её как сущность, которая способна поменять мир, причём с невообразимой скоростью. Проблематика доверенного ИИ — это сложный вызов, но совместная работа профессионалов поможет ответить на него системно и прагматично.
О мероприятии:
- Организаторы: АНО НТЦ ЦК, ИСП РАН, Академия Криптографии РФ, МГ "Авангард"
- При участии: Минцифры, ФСБ России, ФСТЭК России
- Официальный сайт: trust-ai.ib-bank.ru

