Лента новостей
Лента новостей
22:35
Видео
Горячий прием: почему поверенной в делах Британии в Москве пришлось убегать от журналистов
21:37
Число пострадавших при взрыве в Сыктывкаре выросло до 12 человек
20:54
«Прогресс»: Дмитриев отреагировал на слова Мерца о России
20:17
Во Франции объяснили причину красного глаза у Макрона
19:53
В Роскомнадзоре не планируют снимать ограничений с WhatsApp*
19:17
Макрон призвал Европу создать аналог «Орешника»
18:26
Видео
«Молнии» поразили пункты управления дронами ВСУ в Запорожской области
18:02
KNR: глава МИД Гренландии расплакалась после переговоров в Белом доме
17:35
Видео
Дроноводы уничтожили миномет и пехоту ВСУ на правом берегу Днепра
17:33
Видео
Путин назвал игнорирование интересов РФ одной из причин украинского кризиса
17:08
Видео
Россиянам объяснили, можно ли не являться на работу при плохой погоде
17:04
Видео
Путин: ситуация на международной арене все больше и больше деградирует
16:40
Мерц выступил за восстановление отношений с Россией
16:25
Видео
«Грады» накрыли укрепления ВСУ в Днепропетровской области
16:14
Минобороны Ирана: США установили для протестующих прайс-лист на преступления
15:36
В Кремле рассчитывают на скорый визит Уиткоффа и Кушнера в Москву
15:28
Видео
Операторы FPV-дронов уничтожили беспилотники ВСУ в Харьковской области
15:02
Девять человек пострадали при пожаре в центре подготовки МВД в Сыктывкаре

В ИТМО перечислили ошибки, которые помогут распознать дипфейк

Эксперт отметил, что мошенники обычно пользуются дешевыми программами, которые создают дипфейк с характерными ошибками.
13 октября 2024, 09:15
Реклама
В ИТМО перечислили ошибки, которые помогут распознать дипфейк
© Christoph Schmidt dpa Globallookpress

Мошенников, использующих дипфейки - нейросетевую технологию замены лица и голоса на видео - можно выявить по характерным ошибкам, которые допускает искусственный интеллект. Обычно злоумышленники пользуются самыми дешевыми программами, поэтому распознать обман достаточно просто. Об этом «Звезде» рассказал доцент университета ИТМО Александр Кугаевских.

«В режиме реального времени это не работает - всегда есть задержка аудио, несовпадение речи с движением губ, видео тоже идет с задержкой, небольшими подергиваниями. На самых простых дипфейках могут проявляться артефакты - волосы неправильно лежат, не будет отражений в глазах. Если же говорить о более дорогих решениях - а стоимость создания дипфейка может доходить до 30 тысяч долларов - то его различить могут лишь специалисты при детальном анализе», - рассказал Кугаевских.

Ходе даже в профессионально сделанных подделках могут быть ошибки, например неестественная смена тембра голоса. Но мошенников в таких случая «спасает» нестабильное соединение - жертва подумает, что артефакты - это лишь помехи связи.

«Когда была прямая линия с Путиным, студенты СПбГУ вывели дипфейк нашего президента. И он сработал только потому, что был слабый канал связи», - отметил эксперт.

Напомним, что в ходе прямой линии «Итогов 2023 года» неназванный студент СПбГУ использовал дипфейк, чтобы стать «двойником» Путина и задать президенту вопрос об опасностях использования искусственного интеллекта. Президент оценил сходство, однако пришел к определенному выводу - остановить развитие ИИ невозможно.

Реклама
Реклама