Дипфейки в Казахстане могут угрожать национальной безопасности

Дипфейки могут угрожать национальной безопасности страны. Так считает мажилисмен Сергей Пономарев. Депутат признался, что и сам становился жертвой мошенников, которые создавали дипфейки с его изображением. Как распознать этот вид технологий и не попасться на уловки неросети, расскажет Асемгуль Касенова.
Эксперты называют дипфейки идеальным инструментом для кибератак и кражи конфиденциальных данных. Этот вид технологий всё чаще используется в финансовом мошенничестве.Даже самые критически настроенные казахстанцы могут попасться на эту уловку, если услышат голос близкого или посмотрят его видео с просьбой о помощи.
АСЕМГУЛЬ КАСЕНОВА – КОРРЕСПОНДЕНТ
А что вообще такое дипфейк? Это фото, видео или аудиозапись, обработанная с помощью нейросетей. Эта технология позволяет создать лица людей, подделать любой голос, мимику или добавить в речь слова, которые человек в принципе в жизни не произносит.
Например, я могу превратиться в Мерве Болугур Нурбану из Великолепного века или Одри Хепберн.
То есть на пару секунд я примерила чужое лицо. Таким образом и работает этот вид мошенничества.
В 2025 году в Казахстане зафиксировано больше 14 тысяч случаев интернет-мошенничества, а ущерб от преступлений превысил шесть миллиардов тенге. Озадачились этим вопросом и в Парламенте. Депутаты просят оперативно выявлять и блокировать дипфейки, а также разработать систему, которая будет подтверждать подлинность цифровых изображений и видео, особенно в государственных информационных системах.
СЕРГЕЙ ПОНОМАРЕВ – ДЕПУТАТ МАЖИЛИСА ПАРЛАМЕНТА РК
Меня однажды так подделали: и голос, и видео, что мама не горюй. Вы знаете, просил, не могли распознать оригинал от подделки хорошо знакомые мне люди. Налицо мы видим манипуляцию общественным мнением, дискредитацию государственных органов и подделки с каждым днем становятся все изощреннее. Мы это видим.
Эксперты подчеркивают, для создания таких дипфейков достаточно всего лишь пару секунд видео с вашим участием или нескольких голосовых сообщений. Поэтому советуют никаким изображениям не доверять на 100 процентов. Любой входящий звонок может быть потенциально мошенническим, поэтому проверять следует абсолютно все, отмечают специалисты по кибербезопасности.
ЕВГЕНИЙ ПИТОЛИН – СОПРЕДСЕДАТЕЛЬ КОМИТЕТА ПО ИБ АЛЬЯНСА QAZTECH
То есть вы должны обращать внимание на то, что человек странно моргает, пропадает из видео, слова невпопад, допустим. Очень сильно отличается цвет лица, например, в центре лица и в верхней части головы. Когда он открывает рот, то не видны язык, рот, а видны черные пятна, тоже самое с глазами, которые не двигаются, вы не видите до конца зрачков. Ну и конечно это голос, это какое-то легкое заикание, немножко роботизированный тон и так далее.
Госорганы уже планируют ввести ответственность за создание дипфейков. В закон об ИИ внесут норму, по которой казахстанцев будут предупреждать о продукте, созданном при помощи искусственного интеллекта.
———————————————