Лента новостей
Лента новостей
04:21
Аналитик назвал три фактора укрепления рубля
04:11
Видео
Финансист объяснила, как не попасть под штраф за криптоплатежи
03:58
Возгорания произошли в Рязани из-за атаки украинских БПЛА
03:20
Стал известен средний размер пенсии в 2026 году
02:48
Москва прекратила сотрудничество в военной сфере с Парижем, Лиссабоном и Оттавой
02:06
Еврокомиссия и ФРГ не убедили Бельгию передать активы РФ Украине
01:59
Мошенники показали Долиной паспорт с актером Холландом из «Человека-паука»
01:33
Эксперты рассказали, как выбрать хорошие мандарины на Новый год
01:20
В США пропал борец с «супер-ИИ», грозившей расправой сотрудникам OpenAI
00:47
Видео
Атакованный Киевом танкер сел на мель у берегов Болгарии
00:20
Венгрия наложила вето на выпуск еврооблигаций взамен кражи активов РФ
23:43
Видео
Зеленский исключил Ермака из СНБО и Ставки главнокомандующего
23:42
Видео
Помог Сталин, Жуков или Бог: как битва за Москву сорвала планы Гитлера
23:38
Видео
«Занозы» для ВСУ: на Урале разработали воздушный ретранслятор для FPV-дронов
23:23
Бундестаг отклонил предложение «Зеленых» об изъятии активов РФ
22:42
Долина впервые полностью раскрыла схему мошенников в истории с ее квартирой
22:20
Определился состав всех групп чемпионата мира по футболу 2026 года
22:09
Долина решила в полном объеме вернуть деньги покупательнице ее квартиры
Нейрообман: как технологии превратились в инструмент интернет-мошенников
© ТРК «Звезда»

Нейрообман: как технологии превратились в инструмент интернет-мошенников

Преступники научились подделывать голоса людей по имеющимся файлам, а с помощью нейросетей могут копировать даже интонацию и ритм речи.
Реклама
Нейрообман: как технологии превратились в инструмент интернет-мошенников
© ТРК «Звезда»

Человек, не знакомый с такими возможностями нейросетей, запросто примет это за чистую монету. Методика синтеза изображения или голоса, основанная на искусственном интеллекте, называется «дипфейк». При помощи такой технологии можно интегрировать лицо и голос кого угодно и как угодно.

Технология, которая активно используется в кинематографе для «воскрешения» ушедших из жизни актеров или «омолаживания» звезд без использования грима, теперь активно используется отнюдь не в самых благородных целях.

Мошенники, для того чтобы заполучить желанные записи голосов, взламывают аккаунты пользователей, после чего дают нейросети проанализировать все аудиосообщения, чтобы в дальнейшем использовать смоделированный голос для своих корыстных целей.

«Для того чтобы обучить нейросеть разговаривать голосом какого-либо человека, достаточно несколько видео. Или записать голос под предлогом какого-нибудь опроса», - рассказал министр цифрового развития и связи Нижегородской области Александр Синелобов.

Если раньше сценариями а-ля «мама, я попал в передрягу, переведи деньги» или «это сотрудник банка, и нам срочно нужны данные вашей карты» обманывали, как правило, пожилых людей, то теперь мошенники стали выдумывать куда более правдоподобные истории.

Обезопасить себя от взлома поможет двухфакторная аутентификация - дополнительная защита, которая срабатывает при входе в мессенджер, браузер или социальную сеть. После введения пароля надо ввести, например, код, пришедший по СМС или на электронную почту. Также эксперты не рекомендуют проходить по непроверенным ссылкам, скачивать сторонние приложения и подключаться к открытым сетям Wi-Fi.

Реклама
Реклама