КиберпанкДеталиИнтернет

Мошенники сделали ставку на дипфейки: как преступники создают поддельные видео с бабушками и Дональдом Трампом

За минувший год число дипфейк-атак в мире увеличилось на 3000%, в России — на 10%. В 2025-м эксперты ждут еще больше «подделок» от мошенников. Они генерируют образы родственников жертвы и для достоверности звонят по видеосвязи, а еще — используют лица Илона Маска, Ким Кардашьян и Дональда Трампа для рекламы несуществующих криптобирж. Рассказываем, как преступники с помощью дипфейков обманывают топ-менеджеров и простых людей и что с этим делать. 

Распространение дипфейков в России и мире

По итогам 2024 года число дипфейк-атак в России выросло более чем на 10% и составило «десятки тысяч случаев», пишет «Коммерсант». В 2025-м их количество может увеличиться еще в несколько раз, предупреждают эксперты. 

На данный момент не существует централизованной системы отслеживания или регистрации всех случаев дипфейк-атак в реальном времени. Проблема в том, что теперь даже некоторые сложные и качественные алгоритмы дипфейков можно легко найти в открытом доступе. 

Татьяна Дешкина
заместитель директора по развитию продуктов VisionLabs 

В «Информзащите» подсчитали, что к октябрю 2024-го с начала года число атак с использованием дипфейк-технологии в финансовом секторе выросло на 13%. Своими жертвами мошенники выбирали клиентов и сотрудников банков. Например, запускали поддельных финансовых консультантов, которые общались с жертвами по видеозвонку. 

Главная проблема в том, что технология создания дипфейков стала доступной, говорят эксперты: теперь сгенерировать поддельный образ может практически любой человек — с помощью бесплатных инструментов в интернете или ботов в Telegram. В ИТ-корпорации IBM утверждают: чтобы выдать себя за знаменитость или генерального директора крупной компании, мошенникам сегодня необходимо в среднем $5 (для оплаты подписки на качественный сервис) и минутный образец голоса.

На этом фоне количество дипфейк-атак во всем мире за 2024 год увеличилось на 3000%. Это «самое мощное новое оружие киберпреступников», пишет Forbes: они могут выдавать себя за кого угодно — от кандидатов в президенты (особенно во время напряженных предвыборных гонок) до менеджеров высшего звена. 

Создание дипфейка
Фото: Freepik

Кроме того, серьезной проблемой в западных странах стало использование дипфейков с порнографическим содержанием (в России такая практика пока распространена меньше). Например, в США в конце 2024 года обвинения предъявили двум подросткам из Пенсильвании: они с помощью ИИ сгенерировали почти 350 порнографических дипфейков — с «изображениями» 60 девочек, с которыми учились в одной школе. Forbes отмечает, что это крупнейший в истории США случай создания дипфейк-порно с участием несовершеннолетних. 

Число потерпевших в данном деле крайне удручает, а травма, которую им пришлось пережить, узнав о том, что их приватность была нарушена именно таким образом, просто невообразима.

Хизер Адамс
прокурор округа Ланкастер

Чьи образы используют мошенники 

В бизнес-среде мошенники чаще всего создают фейковую личность руководителя. Так, еще в 2019 году крупная британская энергетическая фирма (ее название так и не раскрыли) потеряла $243 тыс. из-за дипфейк-мошенничества: гендиректор думал, что разговаривает по телефону со своим боссом — главой материнской фирмы, — и по его запросу перевел деньги на банковский счет якобы венгерского поставщика. 

Зимой 2024-го из-за подобной схемы $25 млн лишилась корпорация из Гонконга. А прошлым летом преступники сгенерировали цифровую копию Бенедетто Виньи — гендиректора Ferrari. От его лица мошенники написали одному из топ-менеджеров автоконцерна. Он рассказал, что в аудиосообщениях голос Виньи «звучал достоверно» — удалось сымитировать даже южноитальянский акцент главы Ferrari. Но обман он все-таки раскрыл, устроив «боссу» проверку: злоумышленники не смогли правильно ответить на вопрос о том, какую книгу Винья посоветовал прочитать своему подчиненному. 

Руководители топ-бизнеса, как правило, публичны, есть огромное количество видео- и аудиозаписей с ними, что позволяет быстро и качественно подделать голос, чтобы потом использовать в мошеннических целях. Например, можно будет манипулировать стоимостью акций, если вдруг СМИ опубликуют такой дипфейк с топом компании, который говорит о том, что мы банкротимся. 

Игорь Бедеров
руководитель компании «Интернет-розыск» 

Популярность набирает еще один вид дипфейк-мошенничества — видеозвонки. Аферисты теперь представляются не только госслужащими или сотрудниками банков, но и родственниками (чаще — бабушками и дедушками) или коллегами потенциальной жертвы. Их изображение в видеоформате (обычно в низком качестве, которое списывают на плохой интернет или камеру) вызывает доверие: человеку кажется, что все происходит «здесь и сейчас». 

Такие звонки создают психологическое давление и нервное напряжение, которые могут довести до противоправных действий, эмоционального истощения. Лучший быстрый и простой способ самоконтроля — перезвонить и все перепроверить. 

Ольга Попова
юрист 

В F.A.C.C.T. дополняют: один из главных трендов 2024 года среди криптомошенников — активное использование дипфейков в рекламе. Так, специалисты компании в одном из мессенджеров обнаружили бот с широким выбором известных личностей: можно сгенерировать видео с поддельным миллиардером Илоном Маском, журналистом Такером Карлсоном, футболистом Криштиану Роналду, моделью Ким Кардашьян или избранным президентом США Дональдом Трампом. Их голосом преступники могут озвучить любой текст (например, рекламу несуществующей криптобиржи) объемом не более 400 символов. 

Как ИТ-компании борются с дипфейками

По данным VikingCloud, 53% компаний в мире не готовы к кибератакам с использованием технологий искусственного интеллекта и дипфейков. Тем не менее «гонка вооружений» — между создателями дипфейков и теми, кто пытается им противостоять, — уже началась, пишет Forbes. В октябре стало известно, что Meta* внедряет технологию распознавания лиц в Facebook* и Instagram*: программа сравнивает подозрительную рекламу, в которой «участвует» знаменитость, с реальными фотографиями из профиля этой звезды. Если образы не совпадают, реклама автоматически блокируется или удаляется. А в политике TikTok с 2023 года есть отдельный пункт, в котором прописано требование к пользователям помечать видео с дипфейками. В противном случае модераторы удаляют ролики, созданные с помощью ИИ. 

Российские технологические компании тоже активно разрабатывают новые решения. В частности, специалисты MTS AI (входит в МТС) создали сервис для выявления дипфейков с подменой лица и голоса, а также поиска запрещенного контента (с изображением алкоголя, наркотиков, оружия и экстремистской символики). Его точность составляет в среднем 97,5%, говорят разработчики. В компании ожидают, что инструмент будут использовать для модерации контента в соцсетях и на других медиаплатформах. Подобные решения есть у «Сбера» (точность в 98%) и у Wink (точность в 80%), рассказали «Коммерсанту» представители компаний.

Фото обложки: Freepik

*Компания Meta признана в России экстремистской. Instagram и Facebook — продукты этой компании.

Копировать ссылкуСкопировано