Лента новостей
Лента новостей
17:44
Бакинский суд арестовал руководителей «Sputnik Азербайджан»
17:32
Видео
Экипаж Су-34 разнес авиабомбой пункт дислокации боевиков
17:21
USAID официально остановило работу программ иностранной помощи с 1 июля
17:18
Ветеринар предупредил об онкологии у питомцев из-за курящего хозяина
16:58
ФАС проконтролирует обоснованность повышения тарифов ЖКУ с 1 июля
16:55
Видео
Мишустин заявил о новых выплатах для родителей с двумя и более детьми
16:33
Видео
Точный удар дронов уничтожил укрытия и миномет ВСУ в Запорожской области
16:20
Страховые пенсии россиянам будут индексировать дважды со следующего года
15:55
Генпрокуратура: теракт в «Крокусе» совершили участники ИГ* в интересах Киева
15:49
Видео
Генерал-майор ФСБ в отставке: ВСУ целили дроны с хлорпикрином на объекты под землей
15:27
Видео
Суд арестовал участника преступной группы Бакира Сафарова до 19 июля
15:03
Видео
Военные саперы СНГ отработали совместное гуманитарное разминирование
15:02
В МИД заявили о вмешательстве Азербайджана во внутренние дела России
15:00
МИД РФ: послу Азербайджана заявлен протест из-за недружественных действий Баку
14:59
Видео
Китайская семья угостила студентку обедом за спасение тонущей бабушки
14:22
Видео
Штурмовик рассказал, что ВСУ убили мирных жителей в Червоной Зирке
13:50
Видео
Глава Удмуртии доложил Путину об атаке ВСУ на Ижевск
13:45
Три человека погибли и 35 пострадали при атаке ВСУ на Ижевск
Россиян предупредили о появлении новых способов мошенничества с ИИ
© Niklas Graeber, dpa, Global Look Press

Россиян предупредили о появлении новых способов мошенничества с ИИ

Аферисты, вероятно, будут использовать сгенерированные звуки и изображения.
13 января 2025, 13:51
Реклама
Россиян предупредили о появлении новых способов мошенничества с ИИ
© Niklas Graeber, dpa, Global Look Press

В наступившем году мошенники могут прибегнуть к новым способам обмана с использованием искусственного интеллекта. Об этом в разговоре с RT предупредил профессор и доктор юридических наук Иван Соловьев.

Эксперты предполагают, что аферисты будут пытаться вводить в заблуждение своих жертв при помощи сгенерированных звуков и изображений.

«Будут выработаны новые способы обмана и вербовки», - отметил юрист.

Ранее в беседе со «Звездой» заместитель директора Института высокотехнологичного права НИУ МИЭТ Генрих Девяткин рассказал, как можно легко распознать дипфейк или робота во время телефонного разговора. По его словам, достаточно задать звонящему несколько простых вопросов: «Какая сейчас погода? » и «Какой сегодня день?». В эти моменты можно будет заметить нехарактерные для человека паузы.

Ситуация со сгенерированными аудиосообщениями в мессенджерах обстоит сложнее. При получении сомнительного сообщения лучше перезвонить адресату, чтобы убедиться в подлинности. С видеосвязью все проще - нужно попросить собеседника поднять руку. Искусственный алгоритм сделать это мгновенно не может.

Реклама
Реклама