Лента новостей
Лента новостей
09:22
Иностранные гости прибыли в Кремль на Парад Победы
09:21
Гигантскую «80» показали на здании постпредства РФ при ООН
09:03
Видео
В Мурманске выстроили технику для парада во главе с Т-34
09:00
Парад Победы-2025: прямая трансляция
08:52
Собянин поздравил москвичей с Днем Победы
08:27
Видео
Участвующие в Параде Победы десантники вспомнили дедов, воевавших с фашистами
08:24
Видео
Китайские военнослужащие спели «Священную войну» перед Парадом Победы
08:06
Видео
«Искандеры» выехали к Манежной площади для участия в Параде Победы
07:52
Видео
Т-90М «Прорыв» из зоны СВО проедет по Дворцовой площади в Петербурге
07:38
Видео
Более 130 единиц военной техники выдвинулось на Парад Победы на Красной площади
07:00
В аэропорту Саратова ограничили прием и выпуск рейсов
06:39
Видео
«Ураганы» и «Гиацинты» проехали по Южно-Сахалинску на Параде Победы
05:44
Видео
«Звезда» показала дроны «Герань» и «Гарпия», которые поучаствуют в Параде в Москве
05:35
Видео
Жители и гости Новосибирска собрались, чтобы увидеть Парад Победы
05:06
Видео
По улицам Хабаровска прошли парадные расчеты в честь 80-й годовщины Победы
04:58
Видео
Легендарные Т-34 и «Катюши» прошли на Парадах во Владивостоке и Уссурийске
04:43
Видео
Первый с 2022 года «Бессмертный полк» прошел во Владивостоке
04:12
Видео
Ансамбль инженерных войск поздравил бойцов в зоне СВО и госпиталях с Днем Победы
Эксперт рассказал, как мошенники «крадут лица» для дипфейков
© Annette Riedl dpa Global Look Press

Эксперт рассказал, как мошенники «крадут лица» для дипфейков

Мошенники стали использовать методы социальной инженерии для создания дипфейков, поэтому распознать их стало сложнее.
08 января 2025, 18:39
Реклама
Эксперт рассказал, как мошенники «крадут лица» для дипфейков
© Annette Riedl dpa Global Look Press

Для мошенников не составляет большого труда создать дипфейк, особенно публичных личностей, чьи изображения есть в интернете. Инструментарий, который доступен сейчас, достаточно прост. С ним разберутся даже те люди, которые никогда этим не занимались. Об этом рассказал «Звезде» эксперт по информационной безопасности Владимир Ульянов.

По мнению собеседника телеканала, чтобы обезопасить себя от «кражи лица» можно, конечно, не выкладывать свои видео и фотографии, но сейчас это сделать достаточно сложно.

«Отдельная категория – это люди публичные, изображение которых можно где-то найти и взять. Вторая категория – люди, которые так или иначе представлены в соцсетях, которые выкладывают там ролики или делают сторис. Их изображения тоже можно использовать в качестве основы», - подчеркнул эксперт.

Есть сценарии, когда злоумышленники взламывают переписку человека, который обменивается аудио- и видеосообщениями. Полученные таким путем материалы они используют для генерации искусственного голоса.

«Для аудио достаточно несколько связок голосовых сообщений, на основе которых можно формировать правдоподобные и длительные голосовые сообщения», - обратил внимание специалист.

В настоящее время все сложнее становится распознать дипфейк. В мошеннических сценариях по их созданию стали использоваться методы социальной инженерии, из-за которых заметить обман становиться тяжело, заключил Владимир Ульянов.

Ранее председатель Ассоциации разработчиков программных продуктов Наталья Касперская в разговоре со «Звездой» перечислила риски использования биометрии, одним из которых как раз стало создание дипфейков путем сканирования лица человека с помощью искусственного интеллекта.

Реклама
Реклама