Представьте, что вы поднимаете трубку видеозвонка. На экране ваш руководитель или близкий родственник. Голос родной, мимика привычная, даже фон тот самый, из их кабинета или гостиной. Он просит срочно перевести деньги, и ни одна сигнальная лампочка в вашей голове не загорается. А зря. Потому что по ту сторону экрана может быть не человек, а цифровой фантом, сгенерированный нейросетью в реальном времени.
Это не выдумка, а сводка новостей 2024–2025 годов. Мир потряс случай в Гонконге, где сотрудник транснациональной корпорации перевёл мошенникам 25 миллионов долларов после видеоконференции с «финансовым директором». Все участники звонка, кроме жертвы, были дипфейками.
От имени Редакции Universus мы подготовили для вас полезное руководство. Мы разберём технологию, научим вас видеть невидимое и дадим обзор инструментов, которые спасут ваши деньги.
Автор
Редакция Универсус
Что такое дипфейк
Дипфейк (deepfake) — синтетический медиаконтент, который создают с помощью методов глубокого обучения (deep learning), где лицо, голос или действия человека подменяются или генерируются с гиперреалистичной точностью. Термин образован от слияния слов «deep learning» и «fake» (подделка).
Если раньше для монтажа лица актёра в Голливуде требовались миллионные бюджеты, студии CGI-графики и месяцы покадровой обработки, то сегодня эта технология стала пугающе доступной. Любой подросток с мощной видеокартой или доступом к облачным сервисам может создать ролик, где вы «признаётесь» в преступлении или рекламируете финансовую пирамиду.
Павел Томник, куратор отдела обучения Universus:
«Мы наблюдаем эволюцию угрозы. Раньше дипфейки были забавой. Лицо Илона Маска приклеивали к героям боевиков. Сегодня это оружие. Мошенники перешли от простой замены лиц к использованию сложных моделей, которые клонируют голос и мимику в реальном времени. Самое опасное — так называемые puppet-master атаки, когда мошенник сидит перед камерой, а нейросеть в прямом эфире „натягивает“ на него чужое лицо».
Как создаются дипфейки
В основе большинства дипфейк-технологий лежит архитектура GAN (Generative Adversarial Networks), то есть генеративно-состязательные сети. Это гениальная и одновременно пугающая концепция «соревнования» двух нейросетей.
Представьте себе бесконечную дуэль между фальшивомонетчиком и экспертом-криминалистом:
- Генератор (Фальшивомонетчик). Ему нужно создать изображение, которое невозможно отличить от оригинала. Он изучает тысячи фотографий жертвы под разными углами.
- Дискриминатор (Полицейский). Он ищет подделку и сравнивает работу генератора с реальными фото.
Этот цикл повторяется миллионы раз. Генератор создаёт — дискриминатор отвергает. Генератор учится на ошибках, улучшает тени, добавляет морщинки, а дискриминатор снова проверяет. В какой-то момент достигается «равновесие Нэша» — подделка становится настолько совершенной, что «полицейский» больше не может отличить её от правды.
Огромный скачок совершили и аудионейросети. Теперь, чтобы украсть ваш голос, мошенникам не нужны часы записей. Им достаточно 3–5 секунд голосового сообщения из WhatsApp* или Telegram, чтобы обучить модель, например, на базе VALL-E* или ElevenLabs*, и заставить «вас» говорить что угодно.
Чем опасны дипфейки
Угроза вышла далеко за пределы использования лиц знаменитостей, хотя это всё ещё 90% всего дипфейк-контента в сети. Сейчас под ударом обычный бизнес и обычные люди.
Основные направления атак:
- Финансовое мошенничество в бизнесе. Это может быть звонок от «генерального директора» с требованием срочно оплатить счёт на офшор.
- Обход биометрии. Мошенники используют дипфейки, чтобы пройти процедуру KYC (Know Your Customer) в банках и криптобиржах, открывают счета на чужие имена для отмывания денег.
- Финансовые аферы с помощью социальной инженерии. Это может быть звонок от «родственника», который якобы попал в беду. Вы видите его лицо, слышите голос. В панике переводите деньги, а уходят они мошенникам.
Важно знать, как распознать дипфейк во время видеозвонка, ведь счёт идёт на секунды. Преступники давят на эмоции и срочность, чтобы отключить критическое мышление. Подробнее о механизмах таких атак мы писали в материале «Нейросети и правила безопасности». Рекомендуем изучить, чтобы вы понимали психологию взлома.
Возможно ли распознать современные дипфейки
Да, пока ещё возможно. Искусственный интеллект, при всей своей мощи — математика, а не биология. Он имитирует картинку, но не понимает физики света и физиологии человека. На этих ошибках (артефактах) его и можно поймать.
Ниже — подробный обзор методов и специальных сервисов, которые помогут проверить подозрительный контент.
Визуальные признаки (ручной анализ)
Внимательно посмотрите:

- Как человек моргает. Сейчас нейросети умеют это делать, но это или слишком ритмично, или редко.
- Что у него со зрачками. У живого человека в зрачках отражается источник света, и эти блики одинаковы в обоих глазах. У дипфейка блики могут быть разными или отсутствовать. Это называется эффектом «мëртвых глаз».
- Какие зубы. ИИ часто рисует зубы как сплошную белую полосу, или «монозуб» или, наоборот, делает их слишком детализированными и симметричными.
- Что происходит с овалом лица, линией волос и шеи. При резких движениях может возникнуть размытие или цифровой шум.
Обзор сервисов для распознавания дипфейков
Если визуальный осмотр не дал результата, используйте тяжëлую артиллерию. Мы протестировали популярные инструменты на рынке.
Deepware Scanner

Простой веб-сканер. Вы вставляете ссылку на YouTube* или загружаете видеофайл, и система ищет признаки манипуляции лицом.
Плюсы:
Минусы:
Доступность: доступен в России.
Hive Moderation

Мощный API и расширение для браузера. Распознаёт дипфейки, изображения, сгенерированные в Midjourney*, Nano Banana*, DALL-E*, и поддельные тексты.
Плюсы:
Минусы:
Доступность: есть демо и бесплатный лимит в расширении. Pro-тарифы от $100 в месяц.
Intel FakeCatcher*

Технология, которая анализирует кровоток. Камера видит микроизменения цвета кожи от пульса, которых нет у дипфейков.
Плюсы:
Минусы:
Доступность: только для крупных корпоративных клиентов Intel*.
Sensity AI*

Платформа для криминалистического анализа. Находит подмену лиц, клонирование голоса и «оживление» фото. Это используют спецслужбы и банки.
Плюсы:
Минусы:
Доступность: стоит от $200 в месяц, в России использование ограничено.
Wildberries Deepfake Detector

Разработка 2025 года от российского маркетплейса. Сервис анализирует фототовары и отзывы на предмет генерации.
Плюсы:
Минусы:
Доступность: бесплатно всем пользователям WB.
Kaspersky Mobile Security

Мобильное приложение с функцией защиты от дипфейков. Анализирует входящие видеозвонки и предупреждает о подозрительной активности.
Плюсы:
Минусы:
Доступность: входит в подписку Kaspersky Premium, что стоит около 2000 ₽ в год.
Павел Томник, Universus:
«Для быстрой личной проверки я рекомендую Deepware Scanner или браузерное расширение от Hive Moderation. Они простые, бесплатные и закрывают большинство базовых задач. Но если хотите защитить смартфон от мошеннических звонков в реальном времени, стоит обратить внимание на мобильные решения, например, от Kaspersky. Они работают „на лету“ и не требуют технических навыков».
Для более глубокого понимания технических аспектов защиты рекомендуем изучить статью «Искусственный интеллект в киберзащите».
Как выявить дипфейк: чек-лист
Кроме уже перечисленных приёмов, используйте дополнительные. Это поможет вам сохранить хладнокровие и деньги, когда нейросеть постучится к вам в мессенджер.

Вот какие способы разоблачить мошенников можно использовать:
- Провокация движением. Если разговариваете по видеосвязи, попросите собеседника совершить нестандартное действие. Например:
- Повернуть голову в профиль (на 90 градусов). Нейросети плохо рисуют уши и боковую проекцию носа, маска может «слететь».
- Провести ладонью перед лицом. Это «ломает» алгоритм наложения: рука может исчезнуть или пройти сквозь лицо.
- Эмоциональный тест. Попросите собеседника улыбнуться одними глазами или сделать сложную гримасу. С синхронизацией микромимики дипфейки справляются плохо.
- Вопрос-ловушка. Задайте личный вопрос, ответ на который нельзя найти в соцсетях и базах данных. Не «девичья фамилия матери», а «какого цвета была скатерть на моём дне рождения?».
- Аудиопроверка. Если звонок только голосовой, обратите внимание на интонации. Роботы часто не умеют делать паузы на вдох, их речь может быть монотонной или иметь металлический оттенок на шипящих звуках.
- Обратный звонок. Сбросьте вызов в мессенджере и перезвоните на мобильный номер. Подделать голос в реальном времени по GSM-связи сложнее и дороже, чем через интернет-протоколы.
Заключение
Мы живём в эпоху «нулевого доверия». Технологии развиваются быстрее, чем законодательство в этой области, поэтому ваша безопасность находится только в ваших руках.
Дипфейки — мощный инструмент, который можно использовать во благо в кино, образовании, искусстве, но в руках мошенников это опасное оружие. Не дайте себя обмануть красивой картинкой. Используйте сервисы проверки, будьте скептичны и всегда перепроверяйте информацию по альтернативным каналам.
Часто задаваемые вопросы
1. Существует ли программа, которая на 100% защитит меня от дипфейков на телефоне?
К сожалению, 100% гарантии не даёт ни один софт. Это бесконечная гонка вооружений: разработчики защиты выпускают обновления, а хакеры обучают модели обходить их. Лучшая стратегия — комбинация технических средств, например, антивирус с модулем антифишинга, и вашей бдительности. Не доверяйте незнакомым номерам и странным просьбам, даже если они исходят от знакомых.
2. Как мошенники могут подделать мой голос, если я не знаменитость?
Вы удивитесь, но им нужно совсем немного. Если у вас открытый профиль в соцсетях, например, в Instagram*, VK или TikTok*, где есть видео с вашим голосом, или вы отправляли голосовые сообщения в публичных чатах Telegram — этого достаточно. Современным нейросетям типа VALL-E* нужно 3 секунды звука, чтобы клонировать ваш тембр. Совет: ограничьте доступ к своим медиафайлам и везде используйте двухфакторную аутентификацию.
3. Законно ли создание дипфейков в России?
Сама технология не запрещена. Но использовать чужие изображения лиц без согласия человека нарушает ст. 152.1 ГК РФ. Если же дипфейк используют для мошенничества, вымогательства или клеветы — уже уголовные преступления (ст. 159, 163, 128.1 УК РФ). Сейчас законодатели активно обсуждают введение специальной ответственности и обязательной маркировки сгенерированного контента.
Отзывы учеников Universus
«Статья про дипфейки открыла глаза. Раньше я думал, что это игрушки для гиков. А неделю назад мне в WhatsApp* позвонил «партнёр» и попросил сделать срочный перевод. Выглядел как живой! Я вспомнил совет из статьи, попросил его помахать рукой перед камерой. Связь тут же „оборвалась“. Спасибо Universus, вы спасли мне полмиллиона рублей!»
Алексей К., предприниматель
«На курсе „Нейродоход“ нас обучали генерации видео и созданию дипфейков, но я не думала о рисках. Теперь внедрила в компании правило: любые финансовые решения только после личного подтверждения или звонка по городскому телефону. Раздел про сервисы очень полезный, теперь проверяем сомнительные резюме через Deepware».
Ирина С., HR-директор
«Круто, что рассказали про техническую часть с GANами простым языком. Я учусь на программиста, но даже мне было полезно узнать про новые методы детекции через кровоток. Попробовал сервис Hive для проверки картинок в интернете, он реально работает, отличает „Миджорни»* от фото на раз-два».
Дмитрий В., студент
*Некоторые сервисы — Sensity AI, Intel FakeCatcher Midjourney, Nano Banana, DALL-E, ElevenLabs, YouTube, TikTok и другие, — могут быть ограничены в России. Социальные сети Instagram и WhatsApp принадлежат компании Meta, которая признана в РФ экстремистской организацией.
+7 (966) 666-81-26

