Лента новостей
Лента новостей
12:49
Видео
Белоусов принял участие в совещании министров обороны государств ШОС
12:43
Видео
Три человека погибли и семь пострадали в пожаре на севере Москвы
12:30
Кремль: парад ко Дню Победы состоится
12:26
ВС РФ поразили объекты энергетической инфраструктуры Украины
12:21
Видео
Эксперт объяснил, почему конфликт в Иране может перекрыть мировой трафик
12:10
Российские войска овладели населенными пунктами Землянки и Ильиновка
12:06
Видео
Мэр Уфы Ратмир Мавлиев задержан по подозрению в получении взятки
12:01
Видео
Более 200 человек могут находиться в горящем здании на севере Москвы
11:59
Дом Шекспира оказался под угрозой разрушения после ДТП
11:48
Видео
Пленный: ВСУ используют наемников из Мексики для штурмовых групп
11:46
В Мексике задержали наркобарона, за которого США предлагали $5 млн
11:22
Медик из Курска и ее муж погибли на глазах ребенка в Белгородской области
11:10
Видео
Спасатели вылетели к месту схода лавины на руднике в Бурятии
10:50
Видео
Минометчики ударили по оборонительным узлам ВСУ в районе Гуляйпольского
10:48
Дипломаты раскрыли подробности освобождения россиянки из рабства в Мьянме
10:29
В МЧС рассказали о последствиях снежного циклона в трех регионах
10:06
В Вологодской области закрыли все «наливайки» и вейп-шопы
09:51
Видео
Белоусов провел переговоры с министром обороны Таджикистана Собирзодой

Обман лицом: как мошенники выманивают крупные суммы при помощи дипфейков

В России уже появились первые жертвы обмана при помощи нейросетей.
14 декабря 2021, 21:42
Реклама
Обман лицом: как мошенники выманивают крупные суммы при помощи дипфейков
© ТРК ВС РФ «ЗВЕЗДА»

Сорок пять миллионов рублей - на такую сумму только по официальным данным МВД телефонные и интернет-мошенники обманули россиян с начала года. При этом способы нажиться на доверчивости граждан становятся все изощреннее и технологичнее. Одна из новинок - обман с использованием видеосообщений с дипфейками.

Схожесть с голливудским актером - повтор мимики, движений и голоса - самое безобидное применение нейросетей. В перспективе - это бомба замедленного действия. Пострадавших будут исчислять миллионами, а потерянные деньги миллиардами. В сети распространяется новый вид мошенничества с использованием дипфейков по видеосвязи. Аферисты используют поддельное изображение и голос человека, звонят его родственникам или деловым партнерам, выманивают крупные суммы.

Одними из первых жертв мошенников в России стали клиенты банка Олега Тинькова. Киберпреступники записали видео с компьютерной копией владельца кредитной организации. Она обещала быстрый доход в половину от вложенной на счет суммы. Сам счет, естественно, принадлежал мошенникам.

В России из-за сложности реализации дипфейки пока используются не так активно. В мире жалоб на мошенников, звонящих по видеосвязи, все больше. В основном, жертвы - знаменитости.

«Для того, чтобы подделать человека, нейросетку нужно обучить, нужно много видеозаписей, тут, скорее, речь идет о звездах, чьих фотографией достаточно много», - говорит исполнительный директор сервиса облачного видеонаблюдения Заур Абуталимов.

Совершенно иная ситуация с телефонными звонками, когда преступники подделывают голоса родственников, знакомых и даже начальства своих жертв. Работница одного из магазинов игрушек по звонку лжеруководителя, голос которого был в точности как на настоящий, перевела деньги на незнакомый счет.

«Позвонил на работу телефон, который определился как один из начальников моих, и голос был идентичный настолько, что даже сомнений не вызвало, что это он... Там была 75 тысяч сумма, и еще была история в том, что сначала позвонили не на рабочий телефон, а моей непосредственной начальнице на мобильный», - говорит пострадавшая Варвара Мормашева.

Более опытные мошенники охотятся за крупным уловом. В ОАЭ с помощью дипфейк-голоса обманули работника банка. Тот поддался на предлог проведения срочной сделки и перевел киберпреступникам 35 миллионов долларов. Эксперты говорят, в эпоху развития нейросетей и систем распознавания лица, пользоваться сервисами идентификации внешности становится небезопасно.

«Если бы мы говорили только о биометрии, как, например, фейспей в московском метро, то там да, возможна подмена биометрии на дипфейк. Если мы говорим о банках, то на сегодня это скорее невозможно, но говорить о том, что будет в будущем, я бы пока не взялся, пока не началось массовое применение биометрии в банковской деятельности, которая заставит злоумышленников сфокусироваться на этом способе проникновения в финансовые институты», - объясняет эксперт по информационной безопасности Алексей Лукацкий.

На производство одного дипфейка сейчас тратятся огромные ресурсы. Чтобы создать качественную копию видео человека, нужно иметь несколько вычислительных машин стоимостью около миллиона рублей каждая. И даже имея такие ресурсы, у мошенников будет всего две возможности использовать дипфейк.

«Первая - это направить в канал, а каналы в биометрических системах защищены, как и хранилища, в соответствии с требованием ФСБ. И остается вторая возможность – применить непосредственно к камере этот дипфейк. То есть ему нужно вывести, к примеру, на экран телефона этот дипфейк и показать камере. И, понятное дело, что при такой демонстрации возникнут различные артефакты, которые легко можно обнаружить с помощью других нейросетей», - говорит директор проектов блока цифровой идентичности телекоммуникационной компании Наталья Бессонова.

С начала года в России зарегистрировано 494 тысячи киберпреступлений. Фактически каждый седьмой гражданин страны стал жертвой таких мошенников. Половина из них передавали свои данные добровольно.

«Всего за 11 месяцев - 45 миллиардов рублей ущерб от кибермошенничества», - заявил заместитель начальника следственного департамента МВД России Данил Филиппов.

Распознать обман непросто. Если все же есть сомнения в звонящем по видео, то нужно обратить внимание на качество изображения. Если оно низкое - таким образом мошенники пытаются скрыть некорректную работу нейросетей. Сдаст мошенников и фальшивая мимика, хаотичное движение губ, бровей. Еще один вариант распознать дипфейк - использовать приложения, разоблачающие искусственный интеллект. Как говорят эксперты, он борется сам с собой.

Реклама
Реклама