Дипфейки — ложные видео, фото и аудио материалы, обработанные нейросетью. Такие файлы могут стать инструментом мошенников, а также причиной распространения дезинформации и дискредитации политических деятелей и лидеров мнений. Об опасности феномена и о том, как казахстанские госструктуры предотвращают распространение фейковой информации — в обзоре Centralmedia24.
Дипфейк — это технология создания и замены визуального или аудио контента с использованием методов машинного обучения и искусственного интеллекта. Результат — фальшивые видео или аудио, где человек говорит то, о чём на самом деле не говорил. Термин «дипфейк» образован от «deep learning» (глубокое обучение) и «fake» (подделка).
Казнет захлестнула волна дипфейков. В числе пострадавших оказалась и известный адвокат Жанна Уразбахова, которая опубликовала в Stories своего аккаунта Instagram скриншот видео с её участием, созданного с помощью нейросетей. Правозащитница призвала казахстанцев проверять информацию.
Премьер-министр Казахстана Олжас Бектенов, отвечая на вопросы журналистов на брифинге в правительстве, признал, что бороться с такими материалами сложно.
«Если дело касается фейков и дипфейков, здесь сложно что-либо противопоставить. Это технология искусственного интеллекта — любое видео в интернете берёшь с участием того или иного человека, накладываешь другой звук, голос подстраиваешь, и получается дипфейк. Бороться с этим достаточно сложно. Технология такая, к сожалению, существует, а может, к радости, поэтому боремся по мере возможности», — сказал премьер.
По его словам, мошенники часто пользуются дипфейками, чтобы обманывать казахстанцев. Например, создают видео-рекламу от имени «высокопоставленного лица», или призывают к чему-либо.
«Многие люди, к сожалению, на это покупаются и отдают деньги свои. Это кибермошенничество, и в МВД создано специальное подразделение, где работают специально обученные люди. При Национальном банке есть Антифрод-центр. Там тоже удаётся на ранних стадиях пресекать и выявлять таких мошенников. Уже миллионы звонков пресекли. Но, конечно, век информационных технологий ставит перед нами новые вызовы», — отметил Олжас Бектенов.

Нацбанк: Казахстанцы попадают на уловки дипфейков, сгенерированных с участием известных лиц
В департаменте платёжных систем и цифровых финансовых технологий Нацбанка в ответе на запрос редакции подтвердили, что с развитием ИИ мошенники массово начали использовать дипфейки. Они делают это для привлечения людей в фиктивные инвестиционные схемы, а также финансовое мошенничество и криптовалюты.
«В последнее время наши граждане начали попадать на уловки дипфейков, сгенерированных мошенниками с участием известных лиц. В частности, политических деятелей, знаменитых актёров, крупных компаний и иных известных персон. Люди, ставшие «жертвами» мошеннических схем, в первую очередь обращаются в правоохранительные органы или финансовые организации. Они указывают необходимые данные платёжных инструментов (номера платежных карточек, банковские счета, номера телефонов и др.), в пользу которых осуществили платёж или перевод денег», — рассказали в Нацбанке.
Координационным звеном, которое обеспечивает взаимодействие финансовых организаций и правоохранительных органов для противодействия мошенничеству, стал Антифрод-центр Нацбанка РК. В его работе принимают участие финансовые и платёжные организации, операторы сотовой связи, правоохранительные и другие заинтересованные государственные органы.
Сейчас в рамках работы Антифрод-центра Нацбанка прорабатывают вопрос внедрения передовых практик, в частности использования искусственного интеллекта для анализа данных по платёжным транзакциям с признаками мошенничества.
До конца 2025 года планируют отрабатывать три ключевые задачи с использованием технологий ИИ:
- типологию мошенничества;
- приоритезацию инцидента Антифрод-центра;
- прогнозирование типологии мошенничества.

МВД: В группе риска пожилые без навыков цифровой грамотности
Как рассказали в МВД РК, на сегодняшний день действительно есть зарегистрированные факты использования дипфейк-технологий киберпреступниками для совершения мошеннических действий.
«Преступники создают видеоролики с якобы обращением известных лиц – политиков, полицейских, телеведущих, финансовых экспертов с целью продвижения ложных инвестиционных платформ, создания доверия у потенциальных жертв и убеждения в необходимости перевода денежных средств. В группе наибольшего риска находятся граждане пожилого возраста, особенно не обладающие навыками цифровой грамотности», — сообщили в министерстве.
Однако такие виды преступлений составляют незначительную долю от общего числа кибермошенничеств. Подобные виды мошенничества входят в состав более широких схем обмана. Их учитывают в рамках обобщённой категории мошеннических действий с использованием цифровых технологий.
«В МВД используют комплексные методы цифровой криминалистики, в том числе мониторинг социальных сетей и мессенджеров, технический анализ изображений и видео на наличие признаков дипфейка. Помимо этого министерство сотрудничает с IT-экспертами, устанавливает IP-адреса и работает с провайдерами и международными платформами по запросам информации», — рассказали в министерстве.
В случае использования дипфейков для обмана граждан, действия преступников могут квалифицировать по следующим статьям:
- 190 УК РК — «Мошенничество»;
- 147 УК РК — «Незаконное использование персональных данных»;
- 274 УК РК — «Распространение заведомо ложной информации».
Наказание по ним может включать штрафы, а также ограничение или лишение свободы до 7 лет, в зависимости от ущерба и тяжести последствий.
«МВД активно сотрудничает с Министерством культуры и информации, помогая блокировать противоправный контент в интернете, а также с Национальным банком – для предотвращения мошенничества в финансовом секторе», — добавили в министерстве.
В 2024 году зарегистрировали свыше 22 тысяч различных кибер-преступлений, а в первой половине 2025-го — 11 661.
Однако самым распространённым киберпреступлением остаются не дипфейки, а интернет-торговля в соцсетях, мессенджерах и маркетплейсах. Как правило, мошенники указывают заниженные цены за товар или услугу и просят предоплату либо полную оплату.

Как отличить дипфейк от настоящего видео — советы МЦРИАП
В ответе на запрос Centralmedia24 в Минцифры РК дали советы, которые могут помочь в распознавании фейковых материалов, созданных с помощью нейросетей.
«Ключевыми признаками дипфейка являются качество и естественность видеоконтента, в частности неестественная мимика, несинхронное движение губ, резкое либо медленное моргание, несоответствие голоса и интонации», — рассказали в министерстве.
Также в Минцифры напомнили, что на рассмотрении Мажилиса находится проект закона «Об искусственном интеллекте», который создаст правовую основу для развития и безопасного использования технологий искусственного интеллекта.
«Речь идёт о повышении качества жизни населения, обеспечении прозрачности, справедливости, ответственности и приоритета благополучия человека при внедрении ИИ, а также стимулировании инвестиций и поддержки инноваций», — добавили в Минцифры.
С принятием закона казахстанцев должны информировать об использовании ИИ в товарах, услугах и продуктах, генеративных моделях.

Читайте также: