Лента новостей
Лента новостей
13:03
МИД назвал грязной статью Axios о «призыве» Путина к Ирану по ядерной сделке
12:45
Видео
Врач рассказала, для кого солнечный удар особенно опасен
12:21
Боец UFC Уокер после победы признался в любви к России на русском языке
12:02
Российская армия освободила населенный пункт Карла Маркса в ДНР
11:42
Президента Ирана ранило в ногу во время одной из атак Израиля
11:15
Видео
FPV-дроны сожгли пункт управления БПЛА на Южно-Донецком направлении
10:53
В Роскадастре насчитали 67 городов с одинаковыми названиями
10:05
Число жертв наводнений в Техасе выросло до 129 человек
09:49
Лавров прибыл в Китай для участия в заседании Совета глав МИД стран ШОС
09:14
AP: в поведении Трампа заметили перемены после покушения в 2024 году
08:50
В очереди на проезд Крымского моста скопились 1055 автомобилей
08:39
Видео
Священник провел таинство причастия для бойцов в Херсонской области
08:19
DM: помощники Карла III и принца Гарри встретились в Лондоне
07:53
Посол России обвинил НАТО в ограничении свободы судоходства на Балтике
07:42
Трамп обвинил политических оппонентов в создании «документов Эпштейна»
07:26
Минобороны: 36 украинских БПЛА сбиты над территорией России
06:52
Telegraph: переменчивость позиции Трампа может лишить Украину будущего
06:21
Макрон сделал заявление о Новой Каледонии в составе Франции
Россиян предупредили о появлении новых способов мошенничества с ИИ
© Niklas Graeber, dpa, Global Look Press

Россиян предупредили о появлении новых способов мошенничества с ИИ

Аферисты, вероятно, будут использовать сгенерированные звуки и изображения.
13 января 2025, 13:51
Реклама
Россиян предупредили о появлении новых способов мошенничества с ИИ
© Niklas Graeber, dpa, Global Look Press

В наступившем году мошенники могут прибегнуть к новым способам обмана с использованием искусственного интеллекта. Об этом в разговоре с RT предупредил профессор и доктор юридических наук Иван Соловьев.

Эксперты предполагают, что аферисты будут пытаться вводить в заблуждение своих жертв при помощи сгенерированных звуков и изображений.

«Будут выработаны новые способы обмана и вербовки», - отметил юрист.

Ранее в беседе со «Звездой» заместитель директора Института высокотехнологичного права НИУ МИЭТ Генрих Девяткин рассказал, как можно легко распознать дипфейк или робота во время телефонного разговора. По его словам, достаточно задать звонящему несколько простых вопросов: «Какая сейчас погода? » и «Какой сегодня день?». В эти моменты можно будет заметить нехарактерные для человека паузы.

Ситуация со сгенерированными аудиосообщениями в мессенджерах обстоит сложнее. При получении сомнительного сообщения лучше перезвонить адресату, чтобы убедиться в подлинности. С видеосвязью все проще - нужно попросить собеседника поднять руку. Искусственный алгоритм сделать это мгновенно не может.

Реклама
Реклама