Лента новостей
Лента новостей
18:36
Видео
Расчеты М-46 уничтожили позиции минометчиков ВСУ в Харьковской области
18:18
Фалейчика подозревают в получении взятки в 1,88 млн рублей
17:47
Работающую в сфере ЖКХ нейросеть пришлось отучать общаться матом
17:15
Видео
Бойцы ГрВ «Север» уничтожили артиллерию и позиции дроноводов ВСУ
16:43
В России с 1 марта вступят в силу изменения в порядок бронирования отелей
16:11
Видео
Расчет «Гиацинта» поразил пункты управления ВСУ в Харьковской области
16:00
В ГД заявили об отсутствии планов блокировать в России Google
15:33
Видео
Захарова: отношения между РФ и Японией достигли точки невозврата
15:01
Финского тренера выгнали с Олимпиады за пьянство
14:51
Видео
Белоусов проинспектировал «Южную» группировку войск
14:28
RT: Эпштейн мог быть связан с пропавшим с семьей в тайге Усольцевым
14:03
Видео
Ракета тяжелого класса «Протон-М» успешно стартовала с Байконура
13:59
Видео
Сердюков заявил, что милитаризация в Европе направлена против России
13:32
Захарова: Россия не будет представлена на заседании Совета мира
13:20
Видео
Украинскую самоходку CAESAR разорвало на куски в Запорожской области
13:14
Туристов из РФ коснется намерение Таиланда сократить срок пребывания без визы
13:07
Песков: Кремль будет внимательно изучать тему повышения квартплаты
12:15
Путин поручил переименовать «среднее профессиональное образование»

Нейрообман: как технологии превратились в инструмент интернет-мошенников

Преступники научились подделывать голоса людей по имеющимся файлам, а с помощью нейросетей могут копировать даже интонацию и ритм речи.
Реклама
Нейрообман: как технологии превратились в инструмент интернет-мошенников
© ТРК «Звезда»

Человек, не знакомый с такими возможностями нейросетей, запросто примет это за чистую монету. Методика синтеза изображения или голоса, основанная на искусственном интеллекте, называется «дипфейк». При помощи такой технологии можно интегрировать лицо и голос кого угодно и как угодно.

Технология, которая активно используется в кинематографе для «воскрешения» ушедших из жизни актеров или «омолаживания» звезд без использования грима, теперь активно используется отнюдь не в самых благородных целях.

Мошенники, для того чтобы заполучить желанные записи голосов, взламывают аккаунты пользователей, после чего дают нейросети проанализировать все аудиосообщения, чтобы в дальнейшем использовать смоделированный голос для своих корыстных целей.

«Для того чтобы обучить нейросеть разговаривать голосом какого-либо человека, достаточно несколько видео. Или записать голос под предлогом какого-нибудь опроса», - рассказал министр цифрового развития и связи Нижегородской области Александр Синелобов.

Если раньше сценариями а-ля «мама, я попал в передрягу, переведи деньги» или «это сотрудник банка, и нам срочно нужны данные вашей карты» обманывали, как правило, пожилых людей, то теперь мошенники стали выдумывать куда более правдоподобные истории.

Обезопасить себя от взлома поможет двухфакторная аутентификация - дополнительная защита, которая срабатывает при входе в мессенджер, браузер или социальную сеть. После введения пароля надо ввести, например, код, пришедший по СМС или на электронную почту. Также эксперты не рекомендуют проходить по непроверенным ссылкам, скачивать сторонние приложения и подключаться к открытым сетям Wi-Fi.

Реклама
Реклама