Лента новостей
Лента новостей
19:19
Слуцкий: на атаку ВСУ по Хорлам последует жесткий ответ
18:20
МИД РФ: киевский режим торпедирует стремление к миру на Украине
17:24
ВСУ вновь атаковали Херсонскую область, погиб пятилетний мальчик
16:39
Фицо на русском языке поздравил сограждан с Новым годом
16:02
Видео
Главврач больницы в Джанкое рассказал о состоянии раненых при атаке на Хорлы
15:29
Саралиев об атаке на Хорлы: террор Киева остановит только достижение целей СВО
14:56
РФ передаст США файл с полетным заданием атаковавшего резиденцию Путина дрона
14:47
Намибия планирует экспортировать в Россию говядину и пиво
14:30
Сальдо: число погибших от теракта ВСУ в Хорлах продолжает расти
14:00
Касаются каждого: какие нововведения в законах вступают в силу в 2026 году
13:30
Видео
Пострадавшие от удара ВСУ в Херсонской области поступают в больницы Крыма
13:02
МИД РФ: атака ВСУ на Херсонскую область была спланирована заранее
13:01
В Херсонской области объявили траур 2 и 3 января из-за удара ВСУ
12:55
На Курской АЭС-2 запустили новый энергоблок №1
12:22
ВС РФ сбили украинский Су-27
12:00
Взрыв на горнолыжном курорте Швейцарии унес около 40 жизней
11:45
Два ребенка, пострадавших при атаке ВСУ на Хорлы, находятся в тяжелом состоянии
11:29
Пять домов повреждены в результате атаки ВСУ Рыльска в Курской области

Нейросеть научили разоблачать мошенников, использующих дипфейки

В ходе первого этапа проекта учеными была составлена база данных с «фальшивыми» лицами, которые создают мошенники при помощи технологии фейс-свап.
03 октября 2025, 09:44
Реклама
Нейросеть научили разоблачать мошенников, использующих дипфейки
© Alexander Legky, Global Look Press, Global Look Press

Ученые Санкт-Петербургского федерального исследовательского центра Российской академии наук разработали прототип нейросети для дипфейков, созданных технологией фейс-свап. Об этом сообщили ТАСС в пресс-службе СПб ФИЦ РАН.

Методика фейс-свап заключается в том, что на оригинальную фотографию человека накладывается поддельное лицо. Она достаточно активно используется кибермошенниками. Разработку ученых СПб ФИЦ РАН можно будет встроить в системы защиты видеозвонков для противодействия аферистам.

«Мы разработали программу, которая, используя нейросеть, может автоматически распознать фейс-свап, созданный с применением технологии дипфейк», - объяснил руководитель Международного центра цифровой криминалистики СПб ФИЦ РАН Андрей Чечулин.

В отличие от обычного визуального восприятия, объяснил он, когда человеку сложно заметить подделку, система анализирует множество скрытых параметров изображения. Также она выявляет характерные искажения.

Как отметили в учреждении, серьезной проблемой цифровой среды является мошенничество в Интернете. За 2024 год от деятельности киберпреступников россияне потеряли около 300 миллиардов рублей. В последние годы мошенники стали активно использовать сервисы ИИ, и одной из популярных технологий является фейс-свап - замена лица на фото или видео. С ее помощью мошенники выдают себя за других людей.

По данным пресс-службы СПб ФИЦ РАН, на первом этапе проекта ученые составили базу данных с лицами, сделанными при помощи технологии фейс-свап. Для создания этих изображений они использовали технологии ИИ, находящиеся в свободном доступе. Именно такими, как правило, и пользуются злоумышленники.

Всего исследователи собрали более 30 тысяч картинок. На основе собранной базы данных обучили нейросеть. При этом ученые обращали внимание на целый комплекс признаков фейс-свапа. Среди них, например, изменение геометрии головы или искажение отдельных элементов лица.

«Наши эксперименты на фотографиях, созданных с помощью фейс-свапа, показали высокую точность распознавания», - сообщил старший научный сотрудник Лаборатории интегрированных систем автоматизации СПб ФИЦ РАН Алексей Кашевник.

Он рассказал, что на основе разработки появится библиотека, которую можно будет встраивать в мессенджеры. Пользователь автоматически получит информацию, если по видеосвязи в диалог с ним вступит не реальный человек, а мошенник под прикрытием фейс-свапа.

Ранее эксперт сервиса «Мошеловка» Алла Храпунова в беседе со «Звездой» объяснила, как мошенники записывают голоса, чтобы затем применять как дипфейк. Для этого ими используется схема звонков со сбросом - аферисты звонят и сбрасывают номер телефона, чтобы жертва им перезвонила.

Реклама
Реклама