Лента новостей
Лента новостей
11:46
Видео
В Подмосковье огонь охватил почти 4 000 кв. м. производственных цехов
11:43
Видео
Подростка осудили на семь лет за подготовку поджога одного из зданий МО РФ
11:37
Видео
Дипломат Долгов оценил шансы на успех иска Венгрии и Словакии по газу из РФ
11:25
Видео
FPV-дроны «Рубикона» уничтожили технику, беспилотники и узлы связи ВСУ
10:51
Видео
Спасательное судно назовут в честь основателя «Центроспаса» Андрея Легошина
10:48
Эксперты заявили об отсутствии у Польши денежных средств на перевооружение армии
10:37
Видео
Российские военнослужащие получили комплекс «Зубр» для защиты от БПЛА
09:51
Рубио заявил о готовности США использовать силу в отношении Венесуэлы
09:44
Видео
Руководству медиахолдинга «Красная звезда» вручили награды от МВД
09:11
Видео
«Акация» разнесла бронированные укрепления ВСУ у Гуляйполя
08:38
Самолет ВВС Вьетнама потерпел крушение во время учебного полета
08:10
Видео
В Нижнем Новгороде выпало 170% месячной нормы осадков
07:45
Силы ПВО сбили над Россией 75 вражеских дронов за ночь
07:44
Видео
Посол РФ на Кубе: прекращение поставок нефти не повлияет на туристов из России
06:52
В Таиланде мужчина вернулся домой спустя две недели после собственных похорон
06:48
Стали сектой: Богомолов ответил критикам его назначения в Школу-студию МХАТ
06:16
Терапевт назвала меры профилактики в преддверии вспышки гриппа и простуд
05:33
Пять человек стали жертвами пожара в частном доме в Якутии

Нейрообман: как технологии превратились в инструмент интернет-мошенников

Преступники научились подделывать голоса людей по имеющимся файлам, а с помощью нейросетей могут копировать даже интонацию и ритм речи.
Реклама
Нейрообман: как технологии превратились в инструмент интернет-мошенников
© ТРК «Звезда»

Человек, не знакомый с такими возможностями нейросетей, запросто примет это за чистую монету. Методика синтеза изображения или голоса, основанная на искусственном интеллекте, называется «дипфейк». При помощи такой технологии можно интегрировать лицо и голос кого угодно и как угодно.

Технология, которая активно используется в кинематографе для «воскрешения» ушедших из жизни актеров или «омолаживания» звезд без использования грима, теперь активно используется отнюдь не в самых благородных целях.

Мошенники, для того чтобы заполучить желанные записи голосов, взламывают аккаунты пользователей, после чего дают нейросети проанализировать все аудиосообщения, чтобы в дальнейшем использовать смоделированный голос для своих корыстных целей.

«Для того чтобы обучить нейросеть разговаривать голосом какого-либо человека, достаточно несколько видео. Или записать голос под предлогом какого-нибудь опроса», - рассказал министр цифрового развития и связи Нижегородской области Александр Синелобов.

Если раньше сценариями а-ля «мама, я попал в передрягу, переведи деньги» или «это сотрудник банка, и нам срочно нужны данные вашей карты» обманывали, как правило, пожилых людей, то теперь мошенники стали выдумывать куда более правдоподобные истории.

Обезопасить себя от взлома поможет двухфакторная аутентификация - дополнительная защита, которая срабатывает при входе в мессенджер, браузер или социальную сеть. После введения пароля надо ввести, например, код, пришедший по СМС или на электронную почту. Также эксперты не рекомендуют проходить по непроверенным ссылкам, скачивать сторонние приложения и подключаться к открытым сетям Wi-Fi.

Реклама
Реклама