Материал раздела Технологии

ИИ все чаще используют для создания порнодипфейков. И это лавина

ИИ стал оружием злоумышленников, создающих фейковое порно. Сначала героями поддельных роликов были медийные личности. Теперь страдают обычные люди, в первую очередь женщины и девочки-подростки. Можно ли сегодня успешно бороться с этим пугающим трендом
Фото: Midjourney
Фото: Midjourney

В один из рабочих дней к 28-летней Кейт подошел коллега, чтобы что-то ей показать. Женщина взглянула на его компьютер и пришла в ужас: на экране был включен порноролик с ее участием. Остальные коллеги подошли посмотреть, что происходит, и, заметив видео, мгновенно замолчали. Кейт почувствовала тошноту: все выглядело реалистично, но она понимала, что этого просто не может быть. «Это было ужасно. Я никогда не видела ничего подобного», — рассказала женщина в интервью HuffPost.

Кейт стала одной из жертв технологии «дипфейк» (от англ. deep learning — «глубокое изучение» и fake — «подделка»), которая позволяет создавать поддельный контент с помощью искусственного интеллекта. В США приложения и веб-сайты, которые позволяют «раздеть» любую женщину, запечатленную на фото, сейчас на пике популярности. Только в сентябре подобными сервисами воспользовались 24 млн человек. Россию этот тренд также не обошел стороной: пользователи форумов в даркнете предлагают создать дипфейк-видео с любым человеком за $20 тыс.

Сама технология была придумана не для этого, в разных сферах жизни у нее достаточно вариантов полезного применения.

Сомнительная репутация у дипфейков стала складываться с их первым громким появлением. В 2017 году пользователь сайта Reddit под ником Deepfake разместил поддельные порноролики, на которых были изображены популярные актрисы и певицы, в том числе Галь Гадот, Тейлор Свифт и Скарлетт Йоханссон. С тех пор фейковые видео стали использовать чаще всего, чтобы навредить репутации человека.