Пользователь Reddit научил нейросеть создавать фейковые ролики, в которых такие голливудские знаменитости как Галь Гадот и Мэйси Уильямс участвуют в сценах из порно. Автор утверждает, что всё сделано ради науки, но на него уже ополчились порноактрисы: эта нейросеть совсем их труд не уважает.
Любители порно и фотожаб со знаменитостями сидят в отдельном уголке на Reddit — в разделе «CelebFakes» собираются те, кто просит и делает для других различные фотожабы, приставляя лица знаменитостей на кадры из фильмов для взрослых. Этот раздел существует давно и оставался бы незаметным (в конце концов, после небольшой обработки в фотошопе даже Дмитрий Медведев может продавать ботинки), если бы не неординарные навыки одного из пользователей. Он вывел на новый уровень понятие «вставить фото знаменитости в порно», приспособив для этого нейросеть.
Автора роликов под ником Deepfakes прославило его видео с Галь Гадот. Он наложил её лицо на актрису в сцене из очередного порнофильма и опубликовал в соответствующей теме. Многие удивились детализации и качеству ролика: мимика Чудо-женщины менялась так, будто никакой обработки не было.
Как объясняет Deepfakes, для создания видеозаписи он использовал находящиеся в открытом доступе материалы, всего две программы (Keras и TensorFlow) и собственный алгоритм обработки фото. В его основе лежит алгоритм нейросети, превращающей мордочки домашних котов в морды их диких собратьев и наоборот. Исходники с лицами звёзд Deepfakes также брал в открытом доступе — из фото и роликов со звёздами, множество которых можно найти на YouTube и их страничках в инстаграме.
По словам Deepfakes, процесс создания подобных фейковых записей легче, чем кажется. Нейросеть сама отслеживает положение глаз, рта и граней лица актрисы на видео и подгоняет под него фотографии знаменитости. При правильных настройках на создание одного ролика у автора уходит всего несколько часов, и ему не нужно работать над каждым кадром видео — алгоритм обрабатывает сотни фото и видео «цели», создавая достоверный аналог её мимики. Но это работает далеко не с каждой записью.
Рендеринг идёт со скоростью около 15 кадров в секунду, но наиболее ресурсоёмкая часть — это предварительная обработка. Я обычно собираю образцы лиц из исходного видео, прогоняю их через нейросеть (на это уходит несколько часов) и проверяю, какая часть видео достаточно хороша для полного преобразования.
Так, Deepfakes постарался над порно «с Эммой Уотсон» и создал видео с Тейлор Свифт и Скарлетт Йоханссон. Но больше всего роликов автор посвящает звезде «Игры престолов» Мэйси Уильямс.
Автор отмечает, что несмотря на заметный прогресс в сравнении со многими другими роликами-коллажами, его работы по замене лиц далеки от совершенства. Он может использовать только «удачные» фрагменты, не может создавать записи высокого качества, а контур лица знаменитости иногда находится в еле заметном расплывчатом квадратике, выделяющем его на фоне видео.
Тем не менее знаменитости уже отреагировали на произошедшее. К примеру, с сайта Gfycat была удалена загруженная гифка автора с Галь Гадот, несмотря на то, что в ней не было постельной сцены. Также с различных ресурсов были удалены ролики автора, посвящённые Скарлетт Йоханссон, Обри Плаза и Гадот.
Голливудские знаменитости не комментировали старания реддитора, но по поводу его работ высказались порноактрисы. По их словам, то, что кто-то создаёт подобные ролики без разрешения «снимающихся» в них актрис, неправильно.
Важная вещь, которую всегда необходимо учитывать, — это согласие. Согласие в вопросах приватности, так же как согласие тех, кто снимается в фильме. Создание фейковых секс-видео со знаменитостями отнимает у них право выбора, хотят они того или нет. Это неправильно, — рассказала порноактриса Грейс Эванджелин изданию Motherboard.
К тому же подобные видеозаписи объективируют женщин, снявшихся в них, и не уважают их труд.
Это действительно беспокоит. Это показывает, как некоторые мужчины типично видят в женщине объект, которым можно манипулировать и который можно заставить делать всё, чего они хотят… Это просто показывает совершенное неуважение к порноактрисам в фильме так же, как и к актрисам, — цитирует издание бывшую порноактрису Алиа Джанин.
Нейросеть не в первый раз применяют в порноиндустрии. Летом умельцы с одного сайта запустили сервис, который с помощью нейросети находил порноактрис, похожих на фотографии любых обычных людей. Medialeaks потестил его на фотках Путина и Навального, и теперь ярые поклонники политиков знают, что за видео им стоит посмотреть, если у них внутри накопится всякое.
Как бы то ни было, достижения Deepfake в очередной раз подводят общество к вопросу использования опубликованных в интернете личных фото.