В ИТМО перечислили ошибки, которые помогут распознать дипфейк
Мошенников, использующих дипфейки - нейросетевую технологию замены лица и голоса на видео - можно выявить по характерным ошибкам, которые допускает искусственный интеллект. Обычно злоумышленники пользуются самыми дешевыми программами, поэтому распознать обман достаточно просто. Об этом «Звезде» рассказал доцент университета ИТМО Александр Кугаевских.
«В режиме реального времени это не работает - всегда есть задержка аудио, несовпадение речи с движением губ, видео тоже идет с задержкой, небольшими подергиваниями. На самых простых дипфейках могут проявляться артефакты - волосы неправильно лежат, не будет отражений в глазах. Если же говорить о более дорогих решениях - а стоимость создания дипфейка может доходить до 30 тысяч долларов - то его различить могут лишь специалисты при детальном анализе», - рассказал Кугаевских.
Ходе даже в профессионально сделанных подделках могут быть ошибки, например неестественная смена тембра голоса. Но мошенников в таких случая «спасает» нестабильное соединение - жертва подумает, что артефакты - это лишь помехи связи.
«Когда была прямая линия с Путиным, студенты СПбГУ вывели дипфейк нашего президента. И он сработал только потому, что был слабый канал связи», - отметил эксперт.
Напомним, что в ходе прямой линии «Итогов 2023 года» неназванный студент СПбГУ использовал дипфейк, чтобы стать «двойником» Путина и задать президенту вопрос об опасностях использования искусственного интеллекта. Президент оценил сходство, однако пришел к определенному выводу - остановить развитие ИИ невозможно.