Deepfake AI: наше настоящее антиутопическое

Pin
Send
Share
Send

Из всех страшных способностей Интернета его способность обмануть ничего не подозревающего может быть самой пугающей. Clickbait, фотографии с фотошопом и ложные новости являются одними из худших преступников, но в последние годы также произошел рост нового потенциально опасного инструмента, известного как искусственный искусственный интеллект (AI).

Термин «фальшивый» относится к контрафактным компьютерным видео и аудио, которые трудно отличить от подлинного, неизмененного контента. Это снимать то, что Photoshop для изображений.

Как работает Deepfake AI?

Этот инструмент основан на том, что известно как генеративные состязательные сети (GAN), метод, изобретенный в 2014 году Яном Гудфеллоу, доктором философии. Студент, который сейчас работает в Apple, сообщает Popular Mechanics.

Алгоритм GAN включает два отдельных ИИ, один из которых генерирует контент - скажем, фотографии людей - и противник, который пытается угадать, являются ли изображения реальными или фальшивыми, согласно Vox. Генерация ИИ начинается практически без представления о том, как люди выглядят, а это означает, что его партнер может легко отличить настоящие фотографии от ложных. Но с течением времени каждый тип ИИ становится все лучше и лучше, и в конечном итоге генерирующий ИИ начинает создавать контент, который выглядит совершенно реалистично.

Deepfake примеры

GAN являются впечатляющими инструментами и не всегда используются в злонамеренных целях. В 2018 году картина, созданная GAN, имитирующая стиль голландских художников «Старый мастер», например, Рембрандта ван Рейна 17-го века, была продана на аукционе Christie's за невероятные 432 500 долларов.

В том же году Deepfakes приобрели широкую известность, в основном благодаря пользователю Reddit, который получил название «Deepfakes», сообщил Вайс. Методика ГАН часто используется, чтобы поместить лица знаменитостей - в том числе Гадот, Мейзи Уильямс и Taylor Swift - на телах порнографического фильма-актрис.

Другие GAN научились делать одно изображение человека и создавать довольно реалистичные альтернативные фотографии или видео этого человека. В 2019 году глубокий подделка может создать жуткие, но реалистичные фильмы о том, как Мона Лиза говорит, двигается и улыбается в разных позициях.

Deepfakes также может изменять аудио контент. Как сообщал The Verge ранее в этом году, техника может объединять новые слова в видео говорящего человека, создавая впечатление, что они говорили то, чего никогда не хотели.

Простота развертывания нового инструмента имеет потенциально пугающие последствия. Если кто-то и где-либо может делать реалистичные фильмы, показывающие, как знаменитости или политики говорят, двигаются и говорят слова, которые они никогда не говорили, зрители вынуждены более осторожно относиться к контенту в Интернете. В качестве примера, просто послушайте, как президент Обама предостерегает против «истощенного» мрачного будущего в этом видео от Buzzfeed, созданного с использованием DeepFake режиссером Джорданом Пилом.

Pin
Send
Share
Send