Лента новостей
Лента новостей
15:56
Посольство РФ на Кипре сообщило о смерти сотрудника
15:24
Видео
«Суперкам» обеспечил разведку позиций ВСУ севернее Лукьяновского
15:15
Посол КНР назвал количество обучающихся в России китайцев
15:10
Видео
Полевые кухни развернули в Москве для убирающих снег коммунальщиков
14:50
СВР: патриарх Варфоломей одержим идеей вытеснить русское православие
14:33
Адвокат Долиной: дата выселения из квартиры согласовывается с приставом
14:23
Видео
Мантуров рассказал, что в 2025 году Россия запустила в космос 17 ракет
14:15
ВС РФ освободили Новобойковское в Запорожской области
13:58
Видео
«Ураган» обрушился на позиции ВСУ на Красноармейском направлении
13:52
Видео
Мантуров: свыше 1 000 образцов военной техники апробировали в зоне СВО
13:51
Видео
Трехметровая «Миусская дюна» из снега возникла в центре Москвы
13:19
Посол Дании ответил на слова спецпосланника Трампа о Гренландии
13:09
Эксперт: работодатель сможет отправлять сотрудников к психиатру
12:58
В МИД Ирана заявили, что демонстранты получали указания из-за рубежа
12:55
Видео
Расчеты «Бук-М3» сбили снаряды HIMARS и управляемые авиабомбы
12:27
Сийярто: холодная зима поставила Западную Европу на колени
12:23
Видео
Юрист рассказал, что делать при получении травмы из-за плохой уборки снега
11:56
Видео
Расчет «Мальвы» разрушил опорник ВСУ в Харьковской области

Нейрообман: как технологии превратились в инструмент интернет-мошенников

Преступники научились подделывать голоса людей по имеющимся файлам, а с помощью нейросетей могут копировать даже интонацию и ритм речи.
Реклама
Нейрообман: как технологии превратились в инструмент интернет-мошенников
© ТРК «Звезда»

Человек, не знакомый с такими возможностями нейросетей, запросто примет это за чистую монету. Методика синтеза изображения или голоса, основанная на искусственном интеллекте, называется «дипфейк». При помощи такой технологии можно интегрировать лицо и голос кого угодно и как угодно.

Технология, которая активно используется в кинематографе для «воскрешения» ушедших из жизни актеров или «омолаживания» звезд без использования грима, теперь активно используется отнюдь не в самых благородных целях.

Мошенники, для того чтобы заполучить желанные записи голосов, взламывают аккаунты пользователей, после чего дают нейросети проанализировать все аудиосообщения, чтобы в дальнейшем использовать смоделированный голос для своих корыстных целей.

«Для того чтобы обучить нейросеть разговаривать голосом какого-либо человека, достаточно несколько видео. Или записать голос под предлогом какого-нибудь опроса», - рассказал министр цифрового развития и связи Нижегородской области Александр Синелобов.

Если раньше сценариями а-ля «мама, я попал в передрягу, переведи деньги» или «это сотрудник банка, и нам срочно нужны данные вашей карты» обманывали, как правило, пожилых людей, то теперь мошенники стали выдумывать куда более правдоподобные истории.

Обезопасить себя от взлома поможет двухфакторная аутентификация - дополнительная защита, которая срабатывает при входе в мессенджер, браузер или социальную сеть. После введения пароля надо ввести, например, код, пришедший по СМС или на электронную почту. Также эксперты не рекомендуют проходить по непроверенным ссылкам, скачивать сторонние приложения и подключаться к открытым сетям Wi-Fi.

Реклама
Реклама