Лента новостей
Лента новостей
21:10
Bild: в ФРГ подросток ранил ножом трех пассажиров автобуса
20:42
Фицо: Словакия планирует выкупить еще четыре F-16 у США
20:17
Kathimerini: Греция направит войска в сектор Газа
19:51
Tagesspiegel: проект украинских ракет «Фламинго» потерпел неудачу
19:07
Видео
В Ленобласти танкер Tony врезался в морской порт Усть-Луга
18:41
Над Россией за пять часов сбили 123 украинских дрона
18:24
В ГД назвали условия для прекращения замедления Telegram
17:59
Каллас: ЕС не готов назвать дату приема Украины в союз
17:37
Станция «Восток» зафиксировала за сутки самый сильный мороз на планете
17:16
Видео
В Пентагоне сообщили о задержании танкера в Индийском океане
16:33
Умер создатель первых игровых приставок Sega Хидеки Сато
16:09
В НАБУ подтвердили задержание экс-министра энергетики Украины Галущенко
15:39
ГД: вывешивание списков имен должников по ЖКХ чревато штрафами
15:10
Белоусов поздравил бойцов с освобождением Приморского в Запорожской области
14:51
Во Франции уровень запасов природного газа опустился ниже 25%
14:20
На Землю обрушилась вторая за февраль магнитная буря
14:00
Видео
Опубликованы кадры освобождения Цветкового в Запорожской области
13:40
Экс-министра энергетики Украины задержали при попытке выехать из страны

Нейросеть научили разоблачать мошенников, использующих дипфейки

В ходе первого этапа проекта учеными была составлена база данных с «фальшивыми» лицами, которые создают мошенники при помощи технологии фейс-свап.
03 октября 2025, 09:44
Реклама
Нейросеть научили разоблачать мошенников, использующих дипфейки
© Alexander Legky, Global Look Press, Global Look Press

Ученые Санкт-Петербургского федерального исследовательского центра Российской академии наук разработали прототип нейросети для дипфейков, созданных технологией фейс-свап. Об этом сообщили ТАСС в пресс-службе СПб ФИЦ РАН.

Методика фейс-свап заключается в том, что на оригинальную фотографию человека накладывается поддельное лицо. Она достаточно активно используется кибермошенниками. Разработку ученых СПб ФИЦ РАН можно будет встроить в системы защиты видеозвонков для противодействия аферистам.

«Мы разработали программу, которая, используя нейросеть, может автоматически распознать фейс-свап, созданный с применением технологии дипфейк», - объяснил руководитель Международного центра цифровой криминалистики СПб ФИЦ РАН Андрей Чечулин.

В отличие от обычного визуального восприятия, объяснил он, когда человеку сложно заметить подделку, система анализирует множество скрытых параметров изображения. Также она выявляет характерные искажения.

Как отметили в учреждении, серьезной проблемой цифровой среды является мошенничество в Интернете. За 2024 год от деятельности киберпреступников россияне потеряли около 300 миллиардов рублей. В последние годы мошенники стали активно использовать сервисы ИИ, и одной из популярных технологий является фейс-свап - замена лица на фото или видео. С ее помощью мошенники выдают себя за других людей.

По данным пресс-службы СПб ФИЦ РАН, на первом этапе проекта ученые составили базу данных с лицами, сделанными при помощи технологии фейс-свап. Для создания этих изображений они использовали технологии ИИ, находящиеся в свободном доступе. Именно такими, как правило, и пользуются злоумышленники.

Всего исследователи собрали более 30 тысяч картинок. На основе собранной базы данных обучили нейросеть. При этом ученые обращали внимание на целый комплекс признаков фейс-свапа. Среди них, например, изменение геометрии головы или искажение отдельных элементов лица.

«Наши эксперименты на фотографиях, созданных с помощью фейс-свапа, показали высокую точность распознавания», - сообщил старший научный сотрудник Лаборатории интегрированных систем автоматизации СПб ФИЦ РАН Алексей Кашевник.

Он рассказал, что на основе разработки появится библиотека, которую можно будет встраивать в мессенджеры. Пользователь автоматически получит информацию, если по видеосвязи в диалог с ним вступит не реальный человек, а мошенник под прикрытием фейс-свапа.

Ранее эксперт сервиса «Мошеловка» Алла Храпунова в беседе со «Звездой» объяснила, как мошенники записывают голоса, чтобы затем применять как дипфейк. Для этого ими используется схема звонков со сбросом - аферисты звонят и сбрасывают номер телефона, чтобы жертва им перезвонила.

Реклама
Реклама