1. Журнал
  2. Безопасность
  3. Что такое дипфейк и как не попасться на удочку мошенников

Что такое дипфейк и как не попасться на удочку мошенников

Содержание

Что такое дипфейкКак работает эта технологияПопулярные схемы с использованием дипфейковКак защитить себя от дипфейковЧто важно запомнить

Представьте, что вам по видео звонит знакомый, просит срочно перевести куда-нибудь деньги и говорит, что спасти ситуацию можете только вы. Ситуация довольно странная, но на экране ваш знакомый — и он в отчаянной ситуации, надо спасать. Лучше на этом моменте притормозить. С большой вероятностью вам позвонил мошенник, а изображение и голос вашего знакомого подделала нейросеть. Эту технологию называют дипфейк, и мошенники уже вовсю ею пользуются. К счастью, распознать такой обман пока несложно, если знать, как это устроено.

Что такое дипфейк

Слово deepfake образовано из двух частей: deep learning (глубокое обучение) и fake (подделка). Это фальшивое видео, аудио или изображение, созданное с помощью нейросети. Исследователи Deloitte выяснили, что одну из таких атак испытал уже каждый четвертый топ-менеджер, а по данным Forbes 26% компаний сталкивались с дипфейками за последний год.

Как работает эта технология

Технология дипфейков основана на нейросетях, которые «обучаются» по фото, видео и аудиозаписям реального человека. После обработки нейросетью материалов алгоритм может с высокой точностью воспроизвести внешность, голос и поведение человека. Раньше дипфейк‑технологии были доступны только специалистам. Сегодня за незначительную сумму можно купить подписку на сервис по созданию дипфейков. Существуют три основных типа дипфейков.

Видеодипфейк. Лицо одного человека накладывается на лицо другого с сохранением мимики, жестов и даже поворотов головы. Итог: на экране вы видите знакомое лицо, которое ведет себя убедительно и просит совершить платеж.

Аудиодипфейк. Для имитации голоса нейросети достаточно обработать 30–60 секунд записи разговора с собеседником. Получить данные злоумышленники могут с помощью звонков с незнакомого номера. Специальные сервисы обучаются на голосе, а затем озвучивают любой текст с нужной интонацией.

Комбинированный дипфейк. Может создать видео с обработанным голосом, сгенерированное в реальном времени. Это создает полную иллюзию живого общения — и именно такой сценарий используется в большинстве корпоративных атак.

Популярные схемы с использованием дипфейков

Вариантов применения нейросетей для обмана становится все больше. Дипфейк перестал быть просто инструментом для создания интернет-мемов и превратился в серьезную угрозу безопасности. Сейчас встречаются самые разные применения этой технологии для атак на компании и отдельных людей.

Корпоративный обман. В январе 2024 года сотрудник Arup перевел 25 млн $ «исполнителю» после Zoom-звонка от «финансового директора». На экране было знакомое лицо, голос — убедительный. Позже выяснилось, что все это — дипфейк, имитирующий человека в реальном времени.

Фальшивые банки. Жертве звонит «служба безопасности банка» с демонстрацией лица реального сотрудника. Злоумышленники просят перевести деньги «на безопасный счет» или установить специальное приложение.

Инвестиционные дипфейки. Самый популярный вариант этой схемы — видео с «Илоном Маском», где он якобы рекламирует специальную платформу, в которую предлагает вложиться инвесторам. Мошенникам удалось обмануть таким способом более 6000 человек по всей Европе.

Звонки от «родственников». Это старый способ обмана, который стал более опасным с распространением технологии дипфейков. Особенно уязвимы в этом случае пожилые люди: часто они получают голосовое сообщение или видеозвонок от внука: он якобы просит перевести деньги на лечение, штраф или поездку. Голос и видео сгенерированы нейросетью, поэтому поверить в такой обман легче.

Сбор компромата. Дипфейки используют для шантажа и дискредитации: подделывают видео с участием человека в морально сомнительных действиях, а затем рассылают коллегам или размещают в сети. Например группировка Yahoo Boys генерировала фейковые выпуски новостей, где человека обвиняли в преступлениях, а затем требовали у жертв выкуп.

Как защитить себя от дипфейков

Главное в защите — не технология, а поведение. Даже самый реалистичный дипфейк не работает, если человек сомневается и проверяет информацию. Есть ряд действий и привычек, которые минимизируют шансы быть обманутым с помощью дипфейка.

Не доверяйте картинке и голосу на 100%. Если вам звонит руководитель, сотрудник банка или родственник с неожиданной просьбой — перепроверьте все. Напишите в мессенджер, позвоните по другому номеру, задайте уточняющий вопрос.

Не принимайте решения под давлением. Срочность и авторитет — классические инструменты социальной инженерии. Мошенники специально создают «аварийные» сценарии: «нужно перевести деньги сейчас», «иначе потеряете контракт», «прямо сейчас у внука беда». Возьмите паузу.

Цифровая гигиена. Минимизируйте публичный голосовой и видеоконтент. Настройте двухфакторную аутентификацию во всех сервисах. Установите антивирус и отключите автоскачивание файлов в мессенджерах. Все это снижает шансы использования ваших персональных данных для атаки.

Разумеется, необходимо всегда придерживаться базовых правил безопасности, которые помогут избежать обмана со стороны мошенников. Насколько бы убедительным не был дипфейк, злоумышленникам не удастся навредить бдительному и аккуратному пользователю.

Что важно запомнить

Дипфейки все чаще используют для цифрового обмана, с ними сталкиваются и бизнес, и частные пользователи. Мошенники играют на доверии: голос звучит знакомо, лицо выглядит правильно, просьба кажется логичной. Но это иллюзия — и цена ошибки может быть высокой.

Лучший способ защититься — не торопиться с действиями: перепроверяйте, ставьте под сомнение, не спешите с решением.

Поддельное видео невозможно отличить на глаз, но спасти от последствий такого общения может привычка думать. А если все же сомневаетесь — лучше сделать лишний звонок, чем лишний перевод.



Источники:

https://www.kaspersky.ru/resource-center/threats/protect-yourself-from-deep-fake

https://www.forbes.ru/finansy/439601-effekt-zlovesej-doliny-kak-raspoznat-dipfejk-i-ne-dat-seba-obmanut

https://www.weforum.org/stories/2025/02/deepfake-ai-cybercrime-arup/

https://www.forbes.com/councils/forbescommunicationscouncil/2025/05/07/ai-generated-misinformation-and-crisis-management-in-corporate-communications/

https://www.theguardian.com/money/2025/mar/05/deepfakes-cash-and-crypto-how-call-centre-scammers-duped-6000-people

Обновлено: