Лента новостей
Лента новостей
15:40
Видео
В СК объяснили важность ужесточения правил для самокатчиков
15:08
Видео
Актриса Чурсина: Голубкина и Миронов были замечательной парой
14:28
МИД: РФ может симметрично ответить на удары Украины по энергообъектам
14:22
Водитель грузовика сбил ребенка на севере Москвы
13:48
Видео
Шойгу: РФ ценит стойкость Сербии в отказе от антироссийских санкций
13:33
Видео
Карасин рассказал об «одном вопросе» на переговорах РФ и США 24 марта
12:50
Видео
Актер Михайлов назвал замечательной работу Голубкиной в «Гусарской балладе»
12:38
Видео
В Москве у «Крокуса» открыли мемориал в память о жертвах теракта
12:11
Российские средства ПВО сбили украинский МиГ-29
12:00
Видео
Врач рассказал о возможных осложнениях после ИВЛ у папы римского
11:53
Умерла народная артистка РСФСР Лариса Голубкина
11:40
Кабмин направит 859 млн руб. на ремонт пунктов пропусков на госгранице
11:25
В МИД выразили обеспокоенность ростом участников учений НАТО в Азии
11:08
Видео
Пленный: командиры ВСУ раздавали приказы по радио в Курском приграничье
10:44
ВСУ застрелили в спину жителя села под Суджей, когда он приехал в магазин
10:30
Цивилева рассказала о развитии протезирования и тактической медицины
10:08
Умер самый возрастной чемпион-тяжеловес по боксу Джордж Форман
09:53
Видео
Су-34 сбросил бомбы с УМПК на боевиков ВСУ в Курской области
Обман лицом: как мошенники выманивают крупные суммы при помощи дипфейков
© ТРК ВС РФ «ЗВЕЗДА»

Обман лицом: как мошенники выманивают крупные суммы при помощи дипфейков

В России уже появились первые жертвы обмана при помощи нейросетей.
14 декабря 2021, 21:42
Реклама
Обман лицом: как мошенники выманивают крупные суммы при помощи дипфейков
© ТРК ВС РФ «ЗВЕЗДА»

Сорок пять миллионов рублей - на такую сумму только по официальным данным МВД телефонные и интернет-мошенники обманули россиян с начала года. При этом способы нажиться на доверчивости граждан становятся все изощреннее и технологичнее. Одна из новинок - обман с использованием видеосообщений с дипфейками.

Схожесть с голливудским актером - повтор мимики, движений и голоса - самое безобидное применение нейросетей. В перспективе - это бомба замедленного действия. Пострадавших будут исчислять миллионами, а потерянные деньги миллиардами. В сети распространяется новый вид мошенничества с использованием дипфейков по видеосвязи. Аферисты используют поддельное изображение и голос человека, звонят его родственникам или деловым партнерам, выманивают крупные суммы.

Одними из первых жертв мошенников в России стали клиенты банка Олега Тинькова. Киберпреступники записали видео с компьютерной копией владельца кредитной организации. Она обещала быстрый доход в половину от вложенной на счет суммы. Сам счет, естественно, принадлежал мошенникам.

В России из-за сложности реализации дипфейки пока используются не так активно. В мире жалоб на мошенников, звонящих по видеосвязи, все больше. В основном, жертвы - знаменитости.

«Для того, чтобы подделать человека, нейросетку нужно обучить, нужно много видеозаписей, тут, скорее, речь идет о звездах, чьих фотографией достаточно много», - говорит исполнительный директор сервиса облачного видеонаблюдения Заур Абуталимов.

Совершенно иная ситуация с телефонными звонками, когда преступники подделывают голоса родственников, знакомых и даже начальства своих жертв. Работница одного из магазинов игрушек по звонку лжеруководителя, голос которого был в точности как на настоящий, перевела деньги на незнакомый счет.

«Позвонил на работу телефон, который определился как один из начальников моих, и голос был идентичный настолько, что даже сомнений не вызвало, что это он... Там была 75 тысяч сумма, и еще была история в том, что сначала позвонили не на рабочий телефон, а моей непосредственной начальнице на мобильный», - говорит пострадавшая Варвара Мормашева.

Более опытные мошенники охотятся за крупным уловом. В ОАЭ с помощью дипфейк-голоса обманули работника банка. Тот поддался на предлог проведения срочной сделки и перевел киберпреступникам 35 миллионов долларов. Эксперты говорят, в эпоху развития нейросетей и систем распознавания лица, пользоваться сервисами идентификации внешности становится небезопасно.

«Если бы мы говорили только о биометрии, как, например, фейспей в московском метро, то там да, возможна подмена биометрии на дипфейк. Если мы говорим о банках, то на сегодня это скорее невозможно, но говорить о том, что будет в будущем, я бы пока не взялся, пока не началось массовое применение биометрии в банковской деятельности, которая заставит злоумышленников сфокусироваться на этом способе проникновения в финансовые институты», - объясняет эксперт по информационной безопасности Алексей Лукацкий.

На производство одного дипфейка сейчас тратятся огромные ресурсы. Чтобы создать качественную копию видео человека, нужно иметь несколько вычислительных машин стоимостью около миллиона рублей каждая. И даже имея такие ресурсы, у мошенников будет всего две возможности использовать дипфейк.

«Первая - это направить в канал, а каналы в биометрических системах защищены, как и хранилища, в соответствии с требованием ФСБ. И остается вторая возможность – применить непосредственно к камере этот дипфейк. То есть ему нужно вывести, к примеру, на экран телефона этот дипфейк и показать камере. И, понятное дело, что при такой демонстрации возникнут различные артефакты, которые легко можно обнаружить с помощью других нейросетей», - говорит директор проектов блока цифровой идентичности телекоммуникационной компании Наталья Бессонова.

С начала года в России зарегистрировано 494 тысячи киберпреступлений. Фактически каждый седьмой гражданин страны стал жертвой таких мошенников. Половина из них передавали свои данные добровольно.

«Всего за 11 месяцев - 45 миллиардов рублей ущерб от кибермошенничества», - заявил заместитель начальника следственного департамента МВД России Данил Филиппов.

Распознать обман непросто. Если все же есть сомнения в звонящем по видео, то нужно обратить внимание на качество изображения. Если оно низкое - таким образом мошенники пытаются скрыть некорректную работу нейросетей. Сдаст мошенников и фальшивая мимика, хаотичное движение губ, бровей. Еще один вариант распознать дипфейк - использовать приложения, разоблачающие искусственный интеллект. Как говорят эксперты, он борется сам с собой.

Реклама
Реклама