Лента новостей
Лента новостей
22:38
В аэропорту Антальи загорелся самолет из Сочи
22:15
Конгрессмен Уолц заявил, что ВСУ не будут атаковать Москву ракетами ATACMS
21:44
«Хезболла» заявила об ударе по базе ВМС Израиля около Хайфы
21:23
В Тбилиси за день до созыва парламента начался митинг оппозиции
20:56
Композитор Павел Карманов скончался в возрасте 54 лет
20:24
В Московский зоопарк привезли гигантского осьминога
19:57
В результате атаки ЦАХАЛ по центру Бейрута погибли 29 человек
19:28
Видео
Под пулями и дронами: родители бойцов рассказали о доставке обедов на передовую
18:50
Через три года в РФ маткапитал достигнет миллиона рублей
18:10
Видео
Эксперт рассказал об уловке продавцов во время «Черной пятницы»
17:29
Видео
Cиловики показали задержание стрелка из Маркса
16:55
Путин созвонился с Эрдоганом, чтобы обсудить вопросы экономики
16:29
Путин посчитал свое предупреждение Западу достаточно ясным и понятным
15:42
Маск предложил колонизировать Марс вместо Третьей мировой войны
15:21
Видео
СК возбудил дело после дорожного конфликта со стрельбой в Марксе
14:53
В Саратовской области неизвестный на авто расстрелял людей, есть погибший
14:44
В Кривом Роге из-за мобилизации не могут начать отопительный сезон
14:28
Кремль: администрация Байдена до нуля свернула диалог с Россией
Обман лицом: как мошенники выманивают крупные суммы при помощи дипфейков
© ТРК ВС РФ «ЗВЕЗДА»

Обман лицом: как мошенники выманивают крупные суммы при помощи дипфейков

В России уже появились первые жертвы обмана при помощи нейросетей.
14 декабря 2021, 21:42
Реклама
Обман лицом: как мошенники выманивают крупные суммы при помощи дипфейков
© ТРК ВС РФ «ЗВЕЗДА»

Сорок пять миллионов рублей - на такую сумму только по официальным данным МВД телефонные и интернет-мошенники обманули россиян с начала года. При этом способы нажиться на доверчивости граждан становятся все изощреннее и технологичнее. Одна из новинок - обман с использованием видеосообщений с дипфейками.

Схожесть с голливудским актером - повтор мимики, движений и голоса - самое безобидное применение нейросетей. В перспективе - это бомба замедленного действия. Пострадавших будут исчислять миллионами, а потерянные деньги миллиардами. В сети распространяется новый вид мошенничества с использованием дипфейков по видеосвязи. Аферисты используют поддельное изображение и голос человека, звонят его родственникам или деловым партнерам, выманивают крупные суммы.

Одними из первых жертв мошенников в России стали клиенты банка Олега Тинькова. Киберпреступники записали видео с компьютерной копией владельца кредитной организации. Она обещала быстрый доход в половину от вложенной на счет суммы. Сам счет, естественно, принадлежал мошенникам.

В России из-за сложности реализации дипфейки пока используются не так активно. В мире жалоб на мошенников, звонящих по видеосвязи, все больше. В основном, жертвы - знаменитости.

«Для того, чтобы подделать человека, нейросетку нужно обучить, нужно много видеозаписей, тут, скорее, речь идет о звездах, чьих фотографией достаточно много», - говорит исполнительный директор сервиса облачного видеонаблюдения Заур Абуталимов.

Совершенно иная ситуация с телефонными звонками, когда преступники подделывают голоса родственников, знакомых и даже начальства своих жертв. Работница одного из магазинов игрушек по звонку лжеруководителя, голос которого был в точности как на настоящий, перевела деньги на незнакомый счет.

«Позвонил на работу телефон, который определился как один из начальников моих, и голос был идентичный настолько, что даже сомнений не вызвало, что это он... Там была 75 тысяч сумма, и еще была история в том, что сначала позвонили не на рабочий телефон, а моей непосредственной начальнице на мобильный», - говорит пострадавшая Варвара Мормашева.

Более опытные мошенники охотятся за крупным уловом. В ОАЭ с помощью дипфейк-голоса обманули работника банка. Тот поддался на предлог проведения срочной сделки и перевел киберпреступникам 35 миллионов долларов. Эксперты говорят, в эпоху развития нейросетей и систем распознавания лица, пользоваться сервисами идентификации внешности становится небезопасно.

«Если бы мы говорили только о биометрии, как, например, фейспей в московском метро, то там да, возможна подмена биометрии на дипфейк. Если мы говорим о банках, то на сегодня это скорее невозможно, но говорить о том, что будет в будущем, я бы пока не взялся, пока не началось массовое применение биометрии в банковской деятельности, которая заставит злоумышленников сфокусироваться на этом способе проникновения в финансовые институты», - объясняет эксперт по информационной безопасности Алексей Лукацкий.

На производство одного дипфейка сейчас тратятся огромные ресурсы. Чтобы создать качественную копию видео человека, нужно иметь несколько вычислительных машин стоимостью около миллиона рублей каждая. И даже имея такие ресурсы, у мошенников будет всего две возможности использовать дипфейк.

«Первая - это направить в канал, а каналы в биометрических системах защищены, как и хранилища, в соответствии с требованием ФСБ. И остается вторая возможность – применить непосредственно к камере этот дипфейк. То есть ему нужно вывести, к примеру, на экран телефона этот дипфейк и показать камере. И, понятное дело, что при такой демонстрации возникнут различные артефакты, которые легко можно обнаружить с помощью других нейросетей», - говорит директор проектов блока цифровой идентичности телекоммуникационной компании Наталья Бессонова.

С начала года в России зарегистрировано 494 тысячи киберпреступлений. Фактически каждый седьмой гражданин страны стал жертвой таких мошенников. Половина из них передавали свои данные добровольно.

«Всего за 11 месяцев - 45 миллиардов рублей ущерб от кибермошенничества», - заявил заместитель начальника следственного департамента МВД России Данил Филиппов.

Распознать обман непросто. Если все же есть сомнения в звонящем по видео, то нужно обратить внимание на качество изображения. Если оно низкое - таким образом мошенники пытаются скрыть некорректную работу нейросетей. Сдаст мошенников и фальшивая мимика, хаотичное движение губ, бровей. Еще один вариант распознать дипфейк - использовать приложения, разоблачающие искусственный интеллект. Как говорят эксперты, он борется сам с собой.

Реклама
Реклама