РБК Pro —  
это сервис для предпринимателей, руководителей и специалистов, которые хотят меняться и менять бизнес
Материал раздела Основной

Товар — лицо: как дипфейки помогут Голливуду, рекламщикам и программистам

Разработка ПО Индустрия развлечений IT Статьи РБК
Одиозную технологию фальсификации видео и аудио можно использовать не только во зло. Ею интересуются авторы музыкальных клипов, отделы персонала крупных компаний и режиссеры, в том числе Тимур Бекмамбетов
Фото: Trismegist san / Shutterstock
Фото: Trismegist san / Shutterstock

Летом 2019 года гендиректору британского филиала одной из немецких энергетических компаний позвонил руководитель головного офиса, попросив перевести €220 тыс. венгерскому поставщику. Отправить деньги нужно было в течение часа. Несмотря на то что просьба выглядела странно, управленец не стал спорить с боссом. Лишь позднее он узнал, что голос руководителя, который был ему так хорошо знаком, принадлежал компьютерной программе. Неизвестный злоумышленник использовал сгенерированную нейросетями имитацию. Если бы несчастный гендиректор следил за развитием технологий, он бы наверняка знал, что подделать теперь можно не только голос, но и лицо человека, «вклеив» его в любое видео.

Такого рода подделки, получившие название дипфейков, не раз становились причинами политических скандалов. Весной того же года президент США Дональд Трамп опубликовал видеозапись выступления председателя конгресса Нэнси Пелоси, на которой та выглядела пьяной. Выяснилось, что авторы ролика обработали запись: скорость речи уменьшили, а голос изменили так, что речь стала невнятной. После инцидента конгресс США запустил расследование, заявив, что такие видео могут фатально повлиять на очередные выборы.

Университетский колледж Лондона называет технологию главной угрозой ближайших 15 лет. «Индустрия дипфейков развивается стремительно. По данным компании Sensity, которая занимается кибербезопасностью, количество таких видео увеличилось в два раза в период с января по июнь 2020 года. В настоящее время в интернете циркулирует порядка 15 тыс. дипфейк-видео», — приводит цифры Аркадий Оверин, технический директор «Номикс», компании — разработчика интерактивных AR/VR приложений и игр. Авторы сфабрикованных роликов часто стараются бросить тень не только на политиков, голливудских актрис и прочих знаменитостей, но и на обычных людей — например, шантажируют с помощью сгенерированного порно их «участниц» — замужних женщин. Делают дипфейки и в России, причем официально — использовать их можно не только в дурных целях: огромный запрос на подобную продукцию существует со стороны рекламной и развлекательной индустрии.