Лента новостей
Лента новостей
23:40
Видео
Автоэксперт пояснил, как будет работать проверка ОСАГО через камеры
23:31
Во Франции ввели красный уровень опасности из-за жары
22:55
Видео
Один человек погиб после удара ВСУ по центру Донецка
21:45
В Баку задержали редактора видеоагентства Ruptly
21:28
Видео
Сербский депутат заявил, что за протестами стоит иностранная разведка
20:59
Орбан: большинство членов НАТО хотят избежать конфликта с Россией
20:48
Bild: в Германии пропал 1 млрд евро, предназначенный для Украины
19:39
Путин призвал вывести новые регионы на средний по России уровень жизни
19:00
Эксперт рассказал, подешевеет ли бензин при запрете его экспорта
18:37
Видео
Мирошник: российских бойцов калечили и убивали в секретных тюрьмах ВСУ
18:31
Видео
Расчеты FPV-дронов сожгли танк Leopard 2A6 в Сумской области
18:12
Врач объяснила, как низкое атмосферное давление влияет на самочувствие
17:45
Главу и шеф-редактора Sputnik Азербайджан задержали в Баку
17:38
Видео
Расчет пустил «Суперкам» в сторону врага и помог навести стволы орудий
16:40
Посла Азербайджана вызвали в МИД РФ из-за недружественных действий Баку
16:37
Доклад ООН: боевики ВСУ били пленных палками и натравливали на них собак
16:35
Видео
Точные удары «Гераней» обрушили хранилище дронов под Конотопом
16:01
Адвокат: Вильям Демчог не знал о преступной схеме, в которой участвовал
Обман лицом: как мошенники выманивают крупные суммы при помощи дипфейков
© ТРК ВС РФ «ЗВЕЗДА»

Обман лицом: как мошенники выманивают крупные суммы при помощи дипфейков

В России уже появились первые жертвы обмана при помощи нейросетей.
14 декабря 2021, 21:42
Реклама
Обман лицом: как мошенники выманивают крупные суммы при помощи дипфейков
© ТРК ВС РФ «ЗВЕЗДА»

Сорок пять миллионов рублей - на такую сумму только по официальным данным МВД телефонные и интернет-мошенники обманули россиян с начала года. При этом способы нажиться на доверчивости граждан становятся все изощреннее и технологичнее. Одна из новинок - обман с использованием видеосообщений с дипфейками.

Схожесть с голливудским актером - повтор мимики, движений и голоса - самое безобидное применение нейросетей. В перспективе - это бомба замедленного действия. Пострадавших будут исчислять миллионами, а потерянные деньги миллиардами. В сети распространяется новый вид мошенничества с использованием дипфейков по видеосвязи. Аферисты используют поддельное изображение и голос человека, звонят его родственникам или деловым партнерам, выманивают крупные суммы.

Одними из первых жертв мошенников в России стали клиенты банка Олега Тинькова. Киберпреступники записали видео с компьютерной копией владельца кредитной организации. Она обещала быстрый доход в половину от вложенной на счет суммы. Сам счет, естественно, принадлежал мошенникам.

В России из-за сложности реализации дипфейки пока используются не так активно. В мире жалоб на мошенников, звонящих по видеосвязи, все больше. В основном, жертвы - знаменитости.

«Для того, чтобы подделать человека, нейросетку нужно обучить, нужно много видеозаписей, тут, скорее, речь идет о звездах, чьих фотографией достаточно много», - говорит исполнительный директор сервиса облачного видеонаблюдения Заур Абуталимов.

Совершенно иная ситуация с телефонными звонками, когда преступники подделывают голоса родственников, знакомых и даже начальства своих жертв. Работница одного из магазинов игрушек по звонку лжеруководителя, голос которого был в точности как на настоящий, перевела деньги на незнакомый счет.

«Позвонил на работу телефон, который определился как один из начальников моих, и голос был идентичный настолько, что даже сомнений не вызвало, что это он... Там была 75 тысяч сумма, и еще была история в том, что сначала позвонили не на рабочий телефон, а моей непосредственной начальнице на мобильный», - говорит пострадавшая Варвара Мормашева.

Более опытные мошенники охотятся за крупным уловом. В ОАЭ с помощью дипфейк-голоса обманули работника банка. Тот поддался на предлог проведения срочной сделки и перевел киберпреступникам 35 миллионов долларов. Эксперты говорят, в эпоху развития нейросетей и систем распознавания лица, пользоваться сервисами идентификации внешности становится небезопасно.

«Если бы мы говорили только о биометрии, как, например, фейспей в московском метро, то там да, возможна подмена биометрии на дипфейк. Если мы говорим о банках, то на сегодня это скорее невозможно, но говорить о том, что будет в будущем, я бы пока не взялся, пока не началось массовое применение биометрии в банковской деятельности, которая заставит злоумышленников сфокусироваться на этом способе проникновения в финансовые институты», - объясняет эксперт по информационной безопасности Алексей Лукацкий.

На производство одного дипфейка сейчас тратятся огромные ресурсы. Чтобы создать качественную копию видео человека, нужно иметь несколько вычислительных машин стоимостью около миллиона рублей каждая. И даже имея такие ресурсы, у мошенников будет всего две возможности использовать дипфейк.

«Первая - это направить в канал, а каналы в биометрических системах защищены, как и хранилища, в соответствии с требованием ФСБ. И остается вторая возможность – применить непосредственно к камере этот дипфейк. То есть ему нужно вывести, к примеру, на экран телефона этот дипфейк и показать камере. И, понятное дело, что при такой демонстрации возникнут различные артефакты, которые легко можно обнаружить с помощью других нейросетей», - говорит директор проектов блока цифровой идентичности телекоммуникационной компании Наталья Бессонова.

С начала года в России зарегистрировано 494 тысячи киберпреступлений. Фактически каждый седьмой гражданин страны стал жертвой таких мошенников. Половина из них передавали свои данные добровольно.

«Всего за 11 месяцев - 45 миллиардов рублей ущерб от кибермошенничества», - заявил заместитель начальника следственного департамента МВД России Данил Филиппов.

Распознать обман непросто. Если все же есть сомнения в звонящем по видео, то нужно обратить внимание на качество изображения. Если оно низкое - таким образом мошенники пытаются скрыть некорректную работу нейросетей. Сдаст мошенников и фальшивая мимика, хаотичное движение губ, бровей. Еще один вариант распознать дипфейк - использовать приложения, разоблачающие искусственный интеллект. Как говорят эксперты, он борется сам с собой.

Реклама
Реклама