Лента новостей
Лента новостей
02:20
В РФ обновили порядок предоставления документов об отсрочке в военкомат
02:00
Видео
Раскрыта схема работников клиники «Свобода» по вымоганию денег у пациентов
01:29
В Подмосковье при падении дрона загорелся дом, ранен человек
01:01
Финны удивили гостеприимством пассажиров экстренно севшего в Хельсинки самолета
00:33
В Одессе уклонист открыл огонь по полицейским
00:12
Иран пригрозил захватом ОАЭ и Бахрейна в случае наземной операции США
23:36
Видео
Крупнейший клад серебряных монет XVII века продемонстрировали в Москве
23:04
Путин: осудившие СВО деятели культуры почему-то молчат об ударах по Ирану
23:02
Иран разрешил России проход через Ормузский пролив
22:44
Видео
Эксперт: у РФ есть механизмы, чтобы адаптироваться к мировому нефтяному кризису
22:37
Джонсон: Штаты и Израиль заканчивают операцию «Эпическая ярость»
22:03
Из России ограничили вывоз золота и наличности
21:48
В Подольске группа мужчин избила приставленного к госнаградам военкора
21:35
Песков: Москалькова займет новую должность
21:03
МИД РФ: попадание в АЭС «Бушер» приведет к ядерной катастрофе
20:39
ISNA: Иран ударил крылатыми ракетами по авианосцу ВМС США Abraham Lincoln
20:25
Видео
Патрушев: вражеский удар по танкеру РФ может грозить экологической катастрофой
19:51
К 2030 году в России будет создано 25 студенческих кампусов мирового уровня

Нейрообман: как технологии превратились в инструмент интернет-мошенников

Преступники научились подделывать голоса людей по имеющимся файлам, а с помощью нейросетей могут копировать даже интонацию и ритм речи.
Реклама
Нейрообман: как технологии превратились в инструмент интернет-мошенников
© ТРК «Звезда»

Человек, не знакомый с такими возможностями нейросетей, запросто примет это за чистую монету. Методика синтеза изображения или голоса, основанная на искусственном интеллекте, называется «дипфейк». При помощи такой технологии можно интегрировать лицо и голос кого угодно и как угодно.

Технология, которая активно используется в кинематографе для «воскрешения» ушедших из жизни актеров или «омолаживания» звезд без использования грима, теперь активно используется отнюдь не в самых благородных целях.

Мошенники, для того чтобы заполучить желанные записи голосов, взламывают аккаунты пользователей, после чего дают нейросети проанализировать все аудиосообщения, чтобы в дальнейшем использовать смоделированный голос для своих корыстных целей.

«Для того чтобы обучить нейросеть разговаривать голосом какого-либо человека, достаточно несколько видео. Или записать голос под предлогом какого-нибудь опроса», - рассказал министр цифрового развития и связи Нижегородской области Александр Синелобов.

Если раньше сценариями а-ля «мама, я попал в передрягу, переведи деньги» или «это сотрудник банка, и нам срочно нужны данные вашей карты» обманывали, как правило, пожилых людей, то теперь мошенники стали выдумывать куда более правдоподобные истории.

Обезопасить себя от взлома поможет двухфакторная аутентификация - дополнительная защита, которая срабатывает при входе в мессенджер, браузер или социальную сеть. После введения пароля надо ввести, например, код, пришедший по СМС или на электронную почту. Также эксперты не рекомендуют проходить по непроверенным ссылкам, скачивать сторонние приложения и подключаться к открытым сетям Wi-Fi.

Реклама
Реклама