28 августа спикер Госдумы Вячеслав Володин в своём Telegram-канале сообщил: всё чаще из СМИ становится известно о случаях, когда искусственный интеллект вместо помощи людям, оказавшимся в сложной ситуации, предлагает им решения совершенно иного плана, и это, к сожалению, стало приводить к печальным последствиям.
«Несколько громких эпизодов произошли в США и связаны с одной конкретной нейросетью. Теперь её разработчики, чтобы исправить ситуацию, планируют интегрировать в неё функцию родительского контроля, возможность добавить в чат-бот контакт доверенного лица для связи в чрезвычайных ситуациях и прямой вызов экстренных служб», — рассказал Володин.
Правильно было бы, по его словам, не дожидаясь трагедий, внедрить такие механизмы создателям и других нейромоделей: «Происшедшее показывает — излишняя цифровизация, отсутствие контроля могут нести опасность и вред. Далеко не на все вопросы можно и нужно искать ответы в нейросетях. Искусственный интеллект — это набор алгоритмов, инструментов и баз данных. Он не бывает полностью объективен и, как оказалось, может содержать в себе скрытые угрозы. Важно помнить об этом, пользуясь такими сервисами в жизни».
Парламентарий заключил, что вопрос внедрения технологий ИИ и цифровизации будет обсуждаться Госдумой в ноябре: «Отдельное внимание и контроль — безопасности и защите граждан от негативных последствий использования нейросетей».
Комментируя этот пост, председатель думского комитета по безопасности и противодействию коррупции Василий Пискарёв заявил: «Технологии развиваются, ИИ сегодня успешно применяется во многих сферах, от производства и медицины до правоохранительной деятельности, помогая в идентификации и поимке преступников. Но вместе с тем, мы видим, что генеративные модели искусственного интеллекта активно пытаются использовать мошенники. Жертвой обмана с помощью так называемых "дипфейков" может стать фактически любой. Причём, речь может идти не только о попытке кражи денежных средств у граждан, но и о вербовке с целью вовлечения в совершение различных преступлений, нередко — террористической и экстремистской направленности, о попытках вмешательства во внутренние дела».
«Очевидно, что необходимо дополнительное регулирование ИИ, в том числе в части повышения ответственности за противоправное использование соответствующих технологий. Кроме того, необходимо и дальше работать над укреплением цифрового суверенитета: мы должны использовать отечественные алгоритмы и модели ИИ», — констатировал депутат, добавив, что его комитет уделит данному вопросу приоритетное внимание в ходе осенней сессии.

