BES.media
BES.media

Депутат Пономарёв заявил, что стал жертвой дипфейка с использованием его голоса и лица

Мажилисмен предупредил, что дипфейки с участием президента или публичных лиц могут стать угрозой национальной безопасности.

Что произошло

Мошенники в видеоролике подделали мой голос и изображение, чтобы просить от моего имени деньги у казахстанцев, сказал на пленарном заседании мажилиса депутат Сергей Пономарёв.

Детали

"Я лично стал жертвой такой технологии, моё изображение и голос были полностью подделаны, использованы в ролике, где от моего имени просили деньги. Смонтировано настолько искусно, что даже близкие не сразу поняли подделку. Уверен, с подобным сталкивались и многие присутствующие здесь", – сказал Сергей Пономарёв в депутатском запросе на имя главы министерства ИИ и МВД.

По его словам, качество подделок растёт, а вместе с ним увеличиваются риски манипуляции общественным мнением.

Он отметил, что в случае создания и распространения дипфейка с участием руководителя государства или публичного лица, содержащего ложные призывы или фальшивые заявления, последствия могут быть катастрофическими и представлять угрозу национальной безопасности.

Что предлагает мировой опыт

Депутат сообщил, что мировая практика подтверждает серьёзность проблемы. Так, США ещё в 2020 году включили положения о дипфейках в закон об оборонном бюджете, определив их как фактор информационной безопасности.

Республика Корея перед парламентскими выборами 2024 года ввела запрет на использование дипфейков в агитации за 90 дней до голосования, нарушение которого влечёт штраф или лишение свободы.

"В ряде стран внедряются технологии автоматического выявления подделок, а также механизмы цифровой маркировки оригинального контента. Дипфейки всё чаще используются в финансовом мошенничестве. Когда человек слышит голос близкого или видит его видео с просьбой о помощи, на эту удочку попадаются даже высокообразованные граждане", – объяснил Пономарёв.

Что ещё

На заседании мажилисмен представил отчёт компании Feedzai за 2025 год, согласно которому более 50% случаев онлайн-мошенничества совершается с использованием искусственного интеллекта.

Он добавил, что в данном случае главная проблема – ущерб репутации. Даже если позднее размещается опровержение, вред уже нанесён, а восстановить доверие практически невозможно.

Что обещают в профильном министерстве

Вице-министр искусственного интеллекта и цифрового развития Дмитрий Мун, отвечая на вопросы депутатов, заверил, что в законе об ИИ предусмотрена ответственность за дипфейки.

"Прописываем, что если вы реализуете продукты, связанные с использованием ИИ, потребитель должен понимать, что с ним разговаривает ИИ. Наказание, нормы, связанные с административной ответственностью, это будет прописываться в законодательстве. Мы входим в соответствующую рабочую группу", – уточнил Мун.

Контекст

Депутат Сергей Пономарёв, обращаясь к руководителям профильных госорганов, заявил о необходимости принятия превентивных мер в связи со стремительным ростом социальной инженерии и развитием технологий искусственного интеллекта.

Он подчеркнул, что министерство искусственного интеллекта и министерство внутренних дел должны действовать на опережение и принять комплекс мер для защиты граждан и информационного пространства.

По словам парламентария, в обязанности центра мониторинга и экспертизы цифрового контента следует вменить обеспечение оперативного выявления и блокировки дипфейков. Кроме того, он предложил разработать систему подтверждения подлинности цифровых изображений и видеоматериалов, особенно в государственных информационных системах и официальных медиа.

Такой инструмент, по его мнению, должен быть доступен не только судам, но и каждому гражданину, желающему проверить подлинность изображения. Пономарёв также отметил важность проведения широкой информационной кампании, направленной на обучение граждан методам распознавания дипфейков и защиты от цифрового мошенничества.

Депутат добавил, что возглавляемая им фракция уже работает над внесением изменений в законодательство, предусматривающих ужесточение наказания за неправомерное использование дипфейков и ограничение сфер применения синтетических продуктов искусственного интеллекта.

фото на обложке
BES.media
BES.media
Мы используем cookies
Файлы cookies помогают нам улучшать работу сайта, обеспечивать удобство пользования, анализировать трафик и показывать релевантный контент. Вы можете использование cookies или ознакомиться с нашей Политикой конфиденциальности, чтобы узнать больше.
Принять