Депутат Пономарёв заявил, что стал жертвой дипфейка с использованием его голоса и лица
Что произошло
Мошенники в видеоролике подделали мой голос и изображение, чтобы просить от моего имени деньги у казахстанцев, сказал на пленарном заседании мажилиса депутат Сергей Пономарёв.
Детали
"Я лично стал жертвой такой технологии, моё изображение и голос были полностью подделаны, использованы в ролике, где от моего имени просили деньги. Смонтировано настолько искусно, что даже близкие не сразу поняли подделку. Уверен, с подобным сталкивались и многие присутствующие здесь", – сказал Сергей Пономарёв в депутатском запросе на имя главы министерства ИИ и МВД.
По его словам, качество подделок растёт, а вместе с ним увеличиваются риски манипуляции общественным мнением.
Он отметил, что в случае создания и распространения дипфейка с участием руководителя государства или публичного лица, содержащего ложные призывы или фальшивые заявления, последствия могут быть катастрофическими и представлять угрозу национальной безопасности.
Что предлагает мировой опыт
Депутат сообщил, что мировая практика подтверждает серьёзность проблемы. Так, США ещё в 2020 году включили положения о дипфейках в закон об оборонном бюджете, определив их как фактор информационной безопасности.
Республика Корея перед парламентскими выборами 2024 года ввела запрет на использование дипфейков в агитации за 90 дней до голосования, нарушение которого влечёт штраф или лишение свободы.
"В ряде стран внедряются технологии автоматического выявления подделок, а также механизмы цифровой маркировки оригинального контента. Дипфейки всё чаще используются в финансовом мошенничестве. Когда человек слышит голос близкого или видит его видео с просьбой о помощи, на эту удочку попадаются даже высокообразованные граждане", – объяснил Пономарёв.
Что ещё
На заседании мажилисмен представил отчёт компании Feedzai за 2025 год, согласно которому более 50% случаев онлайн-мошенничества совершается с использованием искусственного интеллекта.
Он добавил, что в данном случае главная проблема – ущерб репутации. Даже если позднее размещается опровержение, вред уже нанесён, а восстановить доверие практически невозможно.
Что обещают в профильном министерстве
Вице-министр искусственного интеллекта и цифрового развития Дмитрий Мун, отвечая на вопросы депутатов, заверил, что в законе об ИИ предусмотрена ответственность за дипфейки.
"Прописываем, что если вы реализуете продукты, связанные с использованием ИИ, потребитель должен понимать, что с ним разговаривает ИИ. Наказание, нормы, связанные с административной ответственностью, это будет прописываться в законодательстве. Мы входим в соответствующую рабочую группу", – уточнил Мун.
Контекст
Депутат Сергей Пономарёв, обращаясь к руководителям профильных госорганов, заявил о необходимости принятия превентивных мер в связи со стремительным ростом социальной инженерии и развитием технологий искусственного интеллекта.
Он подчеркнул, что министерство искусственного интеллекта и министерство внутренних дел должны действовать на опережение и принять комплекс мер для защиты граждан и информационного пространства.
По словам парламентария, в обязанности центра мониторинга и экспертизы цифрового контента следует вменить обеспечение оперативного выявления и блокировки дипфейков. Кроме того, он предложил разработать систему подтверждения подлинности цифровых изображений и видеоматериалов, особенно в государственных информационных системах и официальных медиа.
Такой инструмент, по его мнению, должен быть доступен не только судам, но и каждому гражданину, желающему проверить подлинность изображения. Пономарёв также отметил важность проведения широкой информационной кампании, направленной на обучение граждан методам распознавания дипфейков и защиты от цифрового мошенничества.
Депутат добавил, что возглавляемая им фракция уже работает над внесением изменений в законодательство, предусматривающих ужесточение наказания за неправомерное использование дипфейков и ограничение сфер применения синтетических продуктов искусственного интеллекта.