Роботы научились создавать фейковые видео

Технология deep-fake в последнее время достигла устрашающих результатов: она позволяет синтезировать реалистичные видео с реальными персонажами. Об этом заявил в четверг, 14 февраля, координатор Центра безопасного Интернета Урван Парфентьев, выступая на Cyber Security Forum 2019 в «России сегодня». «Технология deep-fake используется для синтезирования искусственным интеллектом человеческих изображений, в основе этого лежит принцип машинного обучения и нейросетей. В результате роботы создают реалистичные видео с настоящими людьми, при этом данные ролики – не аниме. Если раньше для создания фейковых видео нужен был дублер-двойник и две тонны грима, сегодня достаточно загрузить данные в нейросеть, которая сама создаст реалистичный ролик», – рассказал эксперт. По его словам, раньше люди на 100% доверяли видеозаписям, так как считалось, что их (в отличие от аудио и фото) подделать нельзя. «Однако сейчас все изменилось: новые технологии научились из реальных видео синтезировать фейки. Анализируя мимику и движения реального персонажа, нейросети затем могут самостоятельно создавать ролики с его участием, таким образом демонстрируя действия, которые настоящий человек не совершал», – добавил Урван Парфентьев. Он обратил внимание, что для создания фейковых роликов нейросеть должна пройти обучение на 300-2000 реальных фотографиях, показывающих героя в разных ракурсах. «Для создания видео также нужна модель, которая будет делать движения: потом эти движения накладываются на внешность второй персоны, и получается, что второй человек производит точно такие же действия, хотя в реальности он их не делал», – сказал эксперт. Координатор Центра безопасного Интернета заключил: «Раньше эта технология была очень дорогой: для создания вымышленного персонажа из фильма “Звездные войны” – принцессы Леи – требовалось $200 млн. Сейчас все гораздо дешевле: нужны только люди, немного разбирающиеся в программировании. Новую технологию можно будет использовать с целью дискредитации политических противников, провокации беспорядков, пропаганды терроризма. В будущем понадобятся законодательные изменения для регулирования использования deep-fake».

Роботы научились создавать фейковые видео
© Инвест-Форсайт