Лента новостей
Лента новостей
03:49
В МОК заявили, что учтут внешние факторы в вопросе допуска россиян к ОИ-2026
03:07
Трамп заявил, что Израиль согласился прекратить огонь в Газе на 60 дней
02:45
Видео
Спецборт МЧС доставил в Москву шестерых раненых при атаке ВСУ на Ижевск
02:02
Хуситы заявили о ракетном ударе по израильскому аэропорту Бен-Гурион
01:18
Politico: США заморозили поставки ВСУ высокоточных боеприпасов и ракет ПВО
01:13
В Суэцком канале затонула буровая установка, погибли четыре человека
00:44
Мерц: Германия не будет стороной конфликта на Украине
00:01
Германия усилила контроль над судами в Балтийском море
23:32
Суд в Баку арестовал на четыре месяца восьмерых россиян
23:29
Мужчина в Турции устроил лесной лесной пожар из-за клеща и подушки
23:01
Израиль пригрозил новыми ударами по хуситам после ракетной атаки из Йемена
22:55
Фицо назвал условие, при котором Словакия поддержит новые санкции против РФ
22:37
Видео
Более 50 тысяч бойцов получили помощь в Военно-социальном центре МО РФ
22:35
На «Госуслугах» запустили сервис для оформления социальных вкладов и счетов
22:07
Видео
Минометчики одним выстрелом подбили Bradley на Южно-Донецком направлении
21:57
Видео
Глава «Росатома» обозначил сроки строительства энергоблоков Кольской АЭС-2
21:27
Посольство РФ: заторы на границе с Казахстаном не связаны с QR-кодами
20:44
Удмуртия выделит по 1,5 млн рублей семьям погибших при атаке дронов в Ижевске
Нейрообман: как технологии превратились в инструмент интернет-мошенников
© ТРК «Звезда»

Нейрообман: как технологии превратились в инструмент интернет-мошенников

Преступники научились подделывать голоса людей по имеющимся файлам, а с помощью нейросетей могут копировать даже интонацию и ритм речи.
Реклама
Нейрообман: как технологии превратились в инструмент интернет-мошенников
© ТРК «Звезда»

Человек, не знакомый с такими возможностями нейросетей, запросто примет это за чистую монету. Методика синтеза изображения или голоса, основанная на искусственном интеллекте, называется «дипфейк». При помощи такой технологии можно интегрировать лицо и голос кого угодно и как угодно.

Технология, которая активно используется в кинематографе для «воскрешения» ушедших из жизни актеров или «омолаживания» звезд без использования грима, теперь активно используется отнюдь не в самых благородных целях.

Мошенники, для того чтобы заполучить желанные записи голосов, взламывают аккаунты пользователей, после чего дают нейросети проанализировать все аудиосообщения, чтобы в дальнейшем использовать смоделированный голос для своих корыстных целей.

«Для того чтобы обучить нейросеть разговаривать голосом какого-либо человека, достаточно несколько видео. Или записать голос под предлогом какого-нибудь опроса», - рассказал министр цифрового развития и связи Нижегородской области Александр Синелобов.

Если раньше сценариями а-ля «мама, я попал в передрягу, переведи деньги» или «это сотрудник банка, и нам срочно нужны данные вашей карты» обманывали, как правило, пожилых людей, то теперь мошенники стали выдумывать куда более правдоподобные истории.

Обезопасить себя от взлома поможет двухфакторная аутентификация - дополнительная защита, которая срабатывает при входе в мессенджер, браузер или социальную сеть. После введения пароля надо ввести, например, код, пришедший по СМС или на электронную почту. Также эксперты не рекомендуют проходить по непроверенным ссылкам, скачивать сторонние приложения и подключаться к открытым сетям Wi-Fi.

Реклама
Реклама