Лента новостей
Лента новостей
13:55
В Шереметьево опровергли сообщения о разбросанных чемоданах и матрасах
13:46
В ЕС обеспокоились молчанием НАТО после заявлений Трампа о Гренландии
13:12
ВС РФ ударили по предприятию ВПК Украины
12:48
Видео
В Улан-Удэ водитель снес пассажиров на остановке
12:27
Армия России освободила Белогорье в Запорожской области
12:25
Видео
В Оренбурге коммунальщик на тракторе пощадил снеговика на своем пути
11:56
ДТЭК назвала самой сложной за всю зиму ситуацию с блэкаутом на Украине
11:37
Замглавы района на Кубани уволили после мата в отношении спасателей
11:19
Иран пообещал ударить по Израилю и объектам США в регионе в случае агрессии
11:08
Генконсульство в Пхукете подтвердило гибель россиянки в столкновении лодок
10:40
Видео
Морпехи построили импровизированный город-полигон для отработки штурма
10:26
Парламент Ирана экстренно собрался из-за протестов в стране
09:43
Видео
Из-за мощного циклона во Владивостоке объявили свободное посещение школ
09:32
Гусев: атакуя Воронеж, ВСУ выбрали максимальное число гражданских объектов
09:01
Видео
Россиянка погибла при крушении скоростного катера в Таиланде
08:51
В Дании предложили спасти Гренландию переносом резиденции принца
08:30
Видео
Операторы дронов не дали боевикам ВСУ провести ротацию в Запорожской области
08:10
Врач рассказал, кому не стоит окунаться в прорубь на Крещение

Нейрообман: как технологии превратились в инструмент интернет-мошенников

Преступники научились подделывать голоса людей по имеющимся файлам, а с помощью нейросетей могут копировать даже интонацию и ритм речи.
Реклама
Нейрообман: как технологии превратились в инструмент интернет-мошенников
© ТРК «Звезда»

Человек, не знакомый с такими возможностями нейросетей, запросто примет это за чистую монету. Методика синтеза изображения или голоса, основанная на искусственном интеллекте, называется «дипфейк». При помощи такой технологии можно интегрировать лицо и голос кого угодно и как угодно.

Технология, которая активно используется в кинематографе для «воскрешения» ушедших из жизни актеров или «омолаживания» звезд без использования грима, теперь активно используется отнюдь не в самых благородных целях.

Мошенники, для того чтобы заполучить желанные записи голосов, взламывают аккаунты пользователей, после чего дают нейросети проанализировать все аудиосообщения, чтобы в дальнейшем использовать смоделированный голос для своих корыстных целей.

«Для того чтобы обучить нейросеть разговаривать голосом какого-либо человека, достаточно несколько видео. Или записать голос под предлогом какого-нибудь опроса», - рассказал министр цифрового развития и связи Нижегородской области Александр Синелобов.

Если раньше сценариями а-ля «мама, я попал в передрягу, переведи деньги» или «это сотрудник банка, и нам срочно нужны данные вашей карты» обманывали, как правило, пожилых людей, то теперь мошенники стали выдумывать куда более правдоподобные истории.

Обезопасить себя от взлома поможет двухфакторная аутентификация - дополнительная защита, которая срабатывает при входе в мессенджер, браузер или социальную сеть. После введения пароля надо ввести, например, код, пришедший по СМС или на электронную почту. Также эксперты не рекомендуют проходить по непроверенным ссылкам, скачивать сторонние приложения и подключаться к открытым сетям Wi-Fi.

Реклама
Реклама