ИИ уже сам сделал поддельное порно со звездами. Кажется, нам всем хана!

«Чудо-женщина» Галь Гадот стала порнозвездой без своего ведома.

ИИ уже сам сделал поддельное порно со звездами. Кажется, нам всем хана!

Функционал нейросетей становятся всё более совершенным, открывая для широкой публики массу возможностей для их применения, рассказывает Vice.

На американском форуме Reddit появился порноролик, в котором главную роль играет звезда фильма «Чудо-женщина» актриса Галь Гадот.

В нём она будто бы занимается сексом со своим сводным братом.

Видео выглядит настолько натурально, что если не искать подвоха, то можно поверить, что это действительно Гадот. Вот только ролик был создан искусственным путём с помощью алгоритма машинного обучения и открытого исходного кода, которыми может воспользоваться любой программист с базовыми знаниями в этой области.

Если присмотреться повнимательнее, то можно заметить несовершенства — лицо Галь Гадот, «приклеенное» к телу порноактрисы, не всегда успевает менять мимику, но в целом выглядит вполне реалистично. Но больше всего в этой истории пугает то, что видео было создано не именитой студией спецэффектов, а обычным пользователем форума под ником Deepfakes.

На данный момент Deepfakes опубликовал на Reddit порноролики «с участием» актрис Скарлетт Йоханссон, Мэйси Уильямс и Обри Плазой, а также певицей Тейлор Свифт, созданные с применением технологии машинного обучения и замены лиц.

Порно с «участием» знаменитостей — жанр не новый и довольно популярный, но, судя по комментариям на Reddit, видео, созданное Deepfakes, отличает особая плавность движений лица и удивительная правдоподобность.

Издание Motherboard связалось с автором роликов, который поделился некоторыми секретами их создания.

Deepfakes

Deepfakes сообщил, что воспользовался библиотеками TensorFlow и Keras, находящимися в открытом доступе, а достоверный эффект анимации лиц был достигнут благодаря фотографиям в поиске Google, стоковым снимкам и видео YouTube. Алгоритм собирал весь графический контент воедино и компилировал лицо той или иной знаменитости.

Чем больше фотографий и скриншотов находится в открытом доступе, тем лучше качество конечного эффекта.

Deepfakes добавил, что не считает себя профессионалом — он обычный программист, который интересуется машинным обучением:

«Просто я нашёл умный способ делать замену лиц. Имея в арсенале сотню изображений лица человека, я могу легко сгенерировать миллион “деформированных” картинок, чтобы натренировать нейросеть.

А если я дам сети снимок лица кого-нибудь другого, она посчитает, что это очередное деформированное изображение и постарается сделать из него копию лица исходного человека».

На вопрос, думал ли Deepfakes о возможных этических последствиях применения такого алгоритма, автор порнороликов ответил уклончиво:

«Каждую технологию можно использовать во вред, и с этим ничего нельзя поделать. Главное в этом алгоритме — простота его использования. Не вижу ничего плохого в том, что с его помощью ещё больше людей заинтересуются машинным обучением».

По данным Google, только в период с 2015 по 2016 год в сервис Google Photos было загружено 24 млрд селфи.

Эксперт в области ИИ и автор книги «Искусственный интеллект в компьютерных играх» Алекс Шампандар рассказал, что с помощью продвинутой видеокарты эффекта Deepfakes можно добиться всего за несколько часов.

С этической точки зрения последствия этой технологии могут быть катастрофичными, считает Шампандар. По его мнению, через несколько месяцев эта технология может настолько усовершенствоваться, что человеческий глаз не заметит разницы между оригиналом и подделкой:

«Конечно, замена лица — это не новость, но раньше для неё требовались много ресурсов и профессионалы в области спецэффектов, а теперь на это способен любой программист-одиночка с мощным компьютером».

Кроме того, добавление знаменитостей в порно ради большого числа подписчиков — это лишь одна из областей применения такой технологии. Такие сфабрикованные ролики, в которых человек предстаёт в невыгодном свете, можно использовать для шантажа или давления.

В общем, отныне ничему нельзя верить — даже видео!

Поделитесь этой страшной новостью с друзьями!