Лента новостей
Лента новостей
00:13
Банки начнут внимательнее изучать комментарии к денежным переводам
23:47
Видео
В Госдуме не позволят Минфину легализовать онлайн-казино
23:00
NYP: Diddy признался в убийстве рэпера 2Pac, угрожая другой своей жертве
22:40
ООН отказала народам Крыма и Донбасса в праве на самоопределение
22:27
Видео
Подмосковные хирурги показали, как собрали лицо пациенту из десятков фрагментов
21:56
CdS: тело украинского банкира обнаружили в Милане
21:09
Видео
ВСУ понесли потери в живой силе у Волчанска из-за ударов расчетов «Мста-С»
20:32
Видео
Президент ОАЭ прибыл в Россию в подаренной Путиным куртке
20:01
Шереметьево приобрело Домодедово без использования займов
19:33
Хинштейн перечислил полученные в ДТП травмы
18:58
Евросоюз внес КСИР в список террористических организаций
18:40
Видео
Лавров назвал конфликт на Украине широким столкновением между Россией и Западом
18:34
Видео
Операторы беспилотников поразили автомобили ВСУ в Днепропетровской области
18:03
Видео
Лавров: Москва не видела соглашение США и Украины о гарантиях безопасности
18:00
Видео
МО РФ рассказало о преимуществах службы в войсках беспилотных систем
17:35
Захарова назвала «сегрегацией по национальному признаку» новые санкции ЕС
17:09
Видео
«Я на правильном пути»: рэпер Рома Жиган о включении в санкционный список ЕС
16:54
Видео
Дроноводы поразили макет F-16 в Кировоградской области

В ИТМО перечислили ошибки, которые помогут распознать дипфейк

Эксперт отметил, что мошенники обычно пользуются дешевыми программами, которые создают дипфейк с характерными ошибками.
13 октября 2024, 09:15
Реклама
В ИТМО перечислили ошибки, которые помогут распознать дипфейк
© Christoph Schmidt dpa Globallookpress

Мошенников, использующих дипфейки - нейросетевую технологию замены лица и голоса на видео - можно выявить по характерным ошибкам, которые допускает искусственный интеллект. Обычно злоумышленники пользуются самыми дешевыми программами, поэтому распознать обман достаточно просто. Об этом «Звезде» рассказал доцент университета ИТМО Александр Кугаевских.

«В режиме реального времени это не работает - всегда есть задержка аудио, несовпадение речи с движением губ, видео тоже идет с задержкой, небольшими подергиваниями. На самых простых дипфейках могут проявляться артефакты - волосы неправильно лежат, не будет отражений в глазах. Если же говорить о более дорогих решениях - а стоимость создания дипфейка может доходить до 30 тысяч долларов - то его различить могут лишь специалисты при детальном анализе», - рассказал Кугаевских.

Ходе даже в профессионально сделанных подделках могут быть ошибки, например неестественная смена тембра голоса. Но мошенников в таких случая «спасает» нестабильное соединение - жертва подумает, что артефакты - это лишь помехи связи.

«Когда была прямая линия с Путиным, студенты СПбГУ вывели дипфейк нашего президента. И он сработал только потому, что был слабый канал связи», - отметил эксперт.

Напомним, что в ходе прямой линии «Итогов 2023 года» неназванный студент СПбГУ использовал дипфейк, чтобы стать «двойником» Путина и задать президенту вопрос об опасностях использования искусственного интеллекта. Президент оценил сходство, однако пришел к определенному выводу - остановить развитие ИИ невозможно.

Реклама
Реклама