Лента новостей
Лента новостей
11:25
В Пензенской области семеро погибли от отравления угарным газом
10:54
Каллас обвинила Трампа в планах разделить Европу
10:38
Видео
FPV-дроны «Рубикона» уничтожили наземных роботов и системы связи ВСУ
10:30
Видео
В Москве-реке нашли тело второго пропавшего в Звенигороде ребенка
10:30
Bloomberg: в США допустили отмену закона Джонса для стабилизации цен на нефть
10:17
Видео
ФСБ задержала двух россиян, собиравших для Киева данные о военных объектах
10:15
Видео
Артиллеристы рассказали о способах наведения орудий при корректировках
09:34
CNN: около 30 полицейских госпитализированы из-за нападения на синагогу в США
09:16
Сборная Ирана по футболу заявила, что никто не вправе исключить ее из участников ЧМ
08:45
Захарова: ЕС возлагает надежды на эскалацию украинского конфликта
08:13
Видео
Удары по невинным: чем чревато поспешное применение ИИ в военной сфере
07:40
Ночью над регионами России перехватили 176 беспилотников ВСУ
07:24
В России с 2028 года начнет действовать новый стандарт на мороженое
06:54
Видео
Иранский дрон атаковал центр международной торговли в Дубае
06:16
В США установили личность протаранившего синагогу водителя
05:53
Землетрясение магнитудой 5,6 произошло на севере Турции
05:49
Дмитриев: США вывели из-под санкций 100 млн баррелей нефти из РФ
05:38
Видео
Дроноводы не дали диверсантам просочиться за ЛБС в Запорожской области

Эксперт рассказал, как мошенники «крадут лица» для дипфейков

Мошенники стали использовать методы социальной инженерии для создания дипфейков, поэтому распознать их стало сложнее.
08 января 2025, 18:39
Реклама
Эксперт рассказал, как мошенники «крадут лица» для дипфейков
© Annette Riedl dpa Global Look Press

Для мошенников не составляет большого труда создать дипфейк, особенно публичных личностей, чьи изображения есть в интернете. Инструментарий, который доступен сейчас, достаточно прост. С ним разберутся даже те люди, которые никогда этим не занимались. Об этом рассказал «Звезде» эксперт по информационной безопасности Владимир Ульянов.

По мнению собеседника телеканала, чтобы обезопасить себя от «кражи лица» можно, конечно, не выкладывать свои видео и фотографии, но сейчас это сделать достаточно сложно.

«Отдельная категория – это люди публичные, изображение которых можно где-то найти и взять. Вторая категория – люди, которые так или иначе представлены в соцсетях, которые выкладывают там ролики или делают сторис. Их изображения тоже можно использовать в качестве основы», - подчеркнул эксперт.

Есть сценарии, когда злоумышленники взламывают переписку человека, который обменивается аудио- и видеосообщениями. Полученные таким путем материалы они используют для генерации искусственного голоса.

«Для аудио достаточно несколько связок голосовых сообщений, на основе которых можно формировать правдоподобные и длительные голосовые сообщения», - обратил внимание специалист.

В настоящее время все сложнее становится распознать дипфейк. В мошеннических сценариях по их созданию стали использоваться методы социальной инженерии, из-за которых заметить обман становиться тяжело, заключил Владимир Ульянов.

Ранее председатель Ассоциации разработчиков программных продуктов Наталья Касперская в разговоре со «Звездой» перечислила риски использования биометрии, одним из которых как раз стало создание дипфейков путем сканирования лица человека с помощью искусственного интеллекта.

Реклама
Реклама