Лента новостей
Лента новостей
10:14
Видео
ФСБ: фашисты в Константиновке выносили людей на мороз и закапывали живьем
09:41
Видео
«Девочка», Пулька и маскировка: как работает расчет САУ под Красноармейском
09:40
При взрыве на заводе «Авангард» в Стерлитамаке погибли три женщины
08:53
Видео
Сотни версий убийства: о чем рассказывается в архивах по делу Кеннеди
08:47
Видео
В Колумбии протестующие ранили из луков полицейских у посольства США
08:11
Видео
Сапер рассказал о попытках ВСУ дистанционно минировать Курскую область
08:10
CNN: Трамп и Зеленский разошлись во мнениях о конфликте на Украине
07:50
За ночь над Россией уничтожили 41 украинский беспилотник
07:40
Видео
Фельдшер рассказал, как получил ранение в сердце при эвакуации бойца
07:30
Студенты из РФ взяли 13 золотых медалей на олимпиаде по химии в Ашхабаде
07:14
На Украине с 2022 года «потерялись» почти полмиллиона единиц оружия
07:02
Спасатели на квадроциклах возобновили поиски семьи Усольцевых
06:56
Видео
Дроноводов ВСУ накрыли «Градом» на берегу Клебан-Быкского водохранилища
06:46
Овечкин забил 898 шайбу и обновил исторический рекорд НХЛ
06:34
Минобороны опубликовало документы о Кущевской атаке 1942 года
06:01
Вильфанд: в ближайшие 10 дней температура в России будет выше нормы
05:43
В МВД рассказали о новой схеме мошенников с фейковыми приложениями
05:29
Два поезда столкнулись в Нижегородской области
Россиян предупредили о появлении новых способов мошенничества с ИИ
© Niklas Graeber, dpa, Global Look Press

Россиян предупредили о появлении новых способов мошенничества с ИИ

Аферисты, вероятно, будут использовать сгенерированные звуки и изображения.
13 января 2025, 13:51
Реклама
Россиян предупредили о появлении новых способов мошенничества с ИИ
© Niklas Graeber, dpa, Global Look Press

В наступившем году мошенники могут прибегнуть к новым способам обмана с использованием искусственного интеллекта. Об этом в разговоре с RT предупредил профессор и доктор юридических наук Иван Соловьев.

Эксперты предполагают, что аферисты будут пытаться вводить в заблуждение своих жертв при помощи сгенерированных звуков и изображений.

«Будут выработаны новые способы обмана и вербовки», - отметил юрист.

Ранее в беседе со «Звездой» заместитель директора Института высокотехнологичного права НИУ МИЭТ Генрих Девяткин рассказал, как можно легко распознать дипфейк или робота во время телефонного разговора. По его словам, достаточно задать звонящему несколько простых вопросов: «Какая сейчас погода? » и «Какой сегодня день?». В эти моменты можно будет заметить нехарактерные для человека паузы.

Ситуация со сгенерированными аудиосообщениями в мессенджерах обстоит сложнее. При получении сомнительного сообщения лучше перезвонить адресату, чтобы убедиться в подлинности. С видеосвязью все проще - нужно попросить собеседника поднять руку. Искусственный алгоритм сделать это мгновенно не может.

Реклама
Реклама