Глубокие подделки могут использовать новые технологии, но в их основе лежит старая идея

Люди распространяют дезинформацию с момента появления средств массовой информации.

Отредактировано 2023-25-06
Гостиная эпохи 1970-х годов с оранжевыми обоями двумя креслами и телевизором на котором играет глубокий фейк НиксонаТекущая выставка в Музее движущегося изображения в Нью-Йорке исследует глубокие подделки и их исторический контекст, начиная с лунной миссии "Аполлон-11".

"Судьба распорядилась так, что люди, которые отправились на Луну, чтобы исследовать мир, останутся на Луне, чтобы покоиться в мире".

Это были слова, которые Ричард Никсон прочитал по телевидению в 1969 году, сообщая нации ужасную новость о том, что миссия "Аполлон-11" провалилась, а астронавты Нил Армстронг и Базз Олдрин погибли при попытке первой посадки на Луну.

Но только в альтернативной реальности. Никсону никогда не пришлось произносить эти слова, потому что "Аполлон-11" был исторически успешным, и Армстронг, Олдрин и их пилот Майкл Коллинз благополучно вернулись на Землю. Но для тогдашнего президента Никсона была подготовлена речь на случай, если они не вернутся. Короткометражный фильм "В случае лунной катастрофы" показывает нам, как бы развивался этот сценарий с невероятно убедительной глубокой подделкой Никсона, сообщающего катастрофические новости.

deepfake - это сочетание слов "deep", что означает глубокое обучение, и "fake", что означает сфабрикованный. Вместе это обозначение аудио- или видеоклипа, в котором с помощью искусственного интеллекта изображается сценарий, которого на самом деле не было. Обычно это состоит в том, что человек говорит или делает что-то, чего он никогда не делал, часто без согласия изображаемых лиц, говорит Хэлси Бургунд, один из руководителей проекта "В случае лунной катастрофы".

Несмотря на то, что глубокие подделки появились недавно, они основываются на давней и устоявшейся линии искаженных СМИ, которые и сегодня существуют в виде низкотехнологичной и действенной дезинформации. Хотя технология deepfake быстро развивается, предпринимаются усилия по замедлению ее распространения. И хотя существует множество вредоносных применений deepfake, есть и полезные приложения в таких областях, как права человека и доступность. В Музее движущегося изображения в Нью-Йорке проходит выставка "Deepfake: Нестабильные доказательства на экране" исследует эти темы, центральным экспонатом которой является фильм "В случае лунной катастрофы".

Разница между фейками и другой дезинформацией

Чтобы сделать глубокую подделку человека, создатели должны обучить компьютер, предоставив ему множество видео, аудио или изображений "объекта" - человека, чьим образом и голосом вы пытаетесь манипулировать, и "источника" - актера, который моделирует слова или действия, которые вы хотите, чтобы объект сказал или сделал. Для этого компьютер использует форму искусственных нейронных сетей, которые должны функционировать подобно человеческому мозгу, пытающемуся решить проблему, рассматривая доказательства, находя закономерности, а затем применяя эти закономерности к новой информации. Нейронные сети были впервые концептуально разработаны в 1943 году и могут использоваться для решения любых задач - от написания рецепта до перевода запутанных журнальных статей. Глубокое обучение и создание глубоких подделок включает в себя множество слоев нейронных сетей, настолько много, что компьютер может сам себя обучать и корректировать.

Хотя технология deepfake сама по себе может показаться вредной, ей способствует то, как быстро пользователи социальных сетей распространяют информацию, часто не задумываясь о том, что ее источник не является подлинным.

"Глубокие подделки как технология производства вызывают много опасений", - говорит Барбара Миллер, сокуратор выставки и заместитель директора по кураторским вопросам Музея движущегося изображения. "Я думаю, что невозможно думать об этой проблеме, не обращая внимания на молниеносную скорость распространения информации".

Но эффективное распространение дезинформации началось еще до появления фейков и даже социальных сетей. Выставка демонстрирует фейки в контексте долгой истории "нестабильных нехудожественных СМИ", добавляет Миллер, чтобы у посетителей не осталось предположения, что рост манипуляций, управляемых искусственным интеллектом, является источником всего недоверия к СМИ.

"Это техники, которые существовали всегда, пока существовали сами СМИ", - говорит Бургунд.

В 1890-х годах компания Edison Manufacturing Company стремилась использовать возможности кинематографа, снимая на камеру Испано-американскую войну. Однако камеры в XIX веке были гораздо более громоздкими, чем сегодня, что затрудняло съемку боевых действий с близкого расстояния. Поэтому компания разбросала постановочные кадры американских солдат, быстро разбивающих вражеские полки, среди реальных кадров марширующих солдат и оружия. Эти кадры разжигали патриотизм среди американских зрителей, которым не объясняли разницу между настоящими и ненастоящими сценами.

Даже сегодня для создания эффективной и действенной дезинформации не нужен искусственный интеллект. "Проверенные и верные методы манипуляции, которые использовались всегда, по-прежнему эффективны", - говорит Бургунд. Даже поместив неправильную надпись на фотографии, даже не редактируя изображение, можно создать дезинформацию, объясняет он.

Возьмем, к примеру, президентские выборы 2020 года. В месяцы, предшествовавшие выборам, Миллер говорит, что существовало опасение, что фальшивки могут подтолкнуть демократический процесс. Однако во время выборов эта технология не вызвала большого резонанса, по крайней мере, по сравнению с более грубыми формами манипуляции, которые смогли успешно распространить дезинформацию.

Используя базовые навыки видеомонтажа, практически любой человек может нарезать кадры, чтобы изменить их смысл или тон. Это называется "дешевые подделки" или "неглубокие подделки" (нарезка видеороликов об испано-американской войне была одним из самых ранних примеров). Во вступлении к фильму "В случае лунной катастрофы" эти приемы были использованы на архивных кадрах, чтобы создать впечатление, что "Аполлон-11" потерпел крушение. Режиссеры поместили кадры возвращения лунного корабля между быстрыми кадрами астронавтов и наложили их на саундтрек из ускоряющихся звуковых сигналов и статических шумов, чтобы создать иллюзию, вызывающую тревогу, что миссия прошла неудачно. Поскольку эти методы требуют минимального опыта и не более чем ноутбука, они гораздо более распространены, чем глубокие подделки.

"[Мелкие подделки - это] место, где мы видим самый широкий спектр повреждений", - говорит Джошуа Глик, сокуратор выставки и доцент кафедры английского языка, кино и медиа в колледже Хендрикс.

На самом деле, некоторые из самых известных видео, которые обсуждались как глубокие подделки, на самом деле являются дешевыми подделками. В 2019 году Рудольф Джулиани, тогдашний адвокат президента Дональда Трампа, опубликовал в Твиттере видеозапись Нэнси Пелоси, на которой она, казалось, произносила слова невнятно, что заставило некоторых ее критиков утверждать, что она была пьяна. Было установлено, что видео было отредактировано и замедлено, но в нем не использовалась технология deepfake.

Бургунд и его содиректор Франческа Панетта считают, что на самом деле распространению глубоких подделок или дешевых подделок, даже если они явно плохо сделаны, способствует предвзятость подтверждения. "Если фейк изображает что-то, во что вы хотите верить, то он почти не должен выглядеть настоящим", - говорит Бургунд.

Замедление распространения фальшивок

Хотя в настоящее время для создания подделки, подобной подделке Бургунда и Панетты, требуются определенные технические знания, Мэтью Райт, директор по исследованиям Глобального института кибербезопасности Рочестерского технологического института и профессор компьютерной безопасности, говорит, что технология быстро распространяется в массы, и уже существует множество приложений и программ для глубокой подделки.

"Это демократизация потенциально опасной технологии", - говорит Райт.

Однако предпринимаются усилия по замедлению или противодействию распространению глубоких подделок. Хотя обычным импульсом среди исследователей в области технологий является желание поделиться методами и инструментами с общественностью, Райт говорит, что некоторые эксперты, разрабатывающие новые технологии глубокой подделки, поклялись сохранить свои результаты в тайне. Кроме того, существуют такие проекты, как Content Authenticity Initiative - консорциум компаний и организаций, таких как Adobe, Twitter и New York Times, целью которого является отслеживание происхождения медиафайлов путем нанесения на них водяных знаков, даже если они отредактированы. Это не идеальное решение, говорит Райт, потому что существуют способы обойти эти проверки. Тем не менее, если бы каждое видео, выходящее, скажем, из Белого дома, было снабжено цифровым водяным знаком, это могло бы замедлить или предотвратить манипуляции с ними.

Райт работает над созданием инструментов для обнаружения фейков, которые могли бы использовать журналисты и обычные пользователи Интернета. (Райт говорит, что он и его коллеги очень осторожно относятся к тому, чтобы не делиться всем исходным кодом, потому что есть вероятность, что кто-то может создать подделку, чтобы обмануть эти детекторы, если у него будет к ним доступ. Но если существует разнообразие аутентификаторов, вероятность этого меньше.

"Пока против этих видео действительно используется множество инструментов обнаружения, я думаю, что в целом наши шансы поймать [глубокие подделки] довольно высоки", - говорит Райт.

Ценности технологии deepfake

Возможно, вы уже сталкивались с преимуществами глубоких подделок в развлечениях, например, в последних фильмах "Звездные войны", или в сатире, например, в этом броске "Звездного пути" с подставленными лицами Джеффа Безоса и Элона Маска. Однако эта технология также полезна в области прав человека и доступности для инвалидов.

В экспозиции Музея движущегося изображения представлены клипы из документального фильма "Добро пожаловать в Чечню", отмеченного наградой Дэвида Франса, в котором используется технология deepfake для сокрытия истинных лиц активистов ЛГБТК, сталкивающихся с преследованиями в российской республике. Это позволяет зрителю увидеть эмоции испытуемых и в то же время защитить их личности.

По словам Бургунда, технология также используется для улучшения доступности для тех, кто потерял голос из-за болезни, травмы или инвалидности, например, болезни Лу Герига. VocaliD, например, использует искусственный интеллект для воссоздания голоса пользователя по старым записям для технологии преобразования текста в речь или помогает ему выбрать голос, наиболее соответствующий его индивидуальности, из банка вариантов.

Хотя Панетта и Бургунд хотят, чтобы зрители их deepfake задались вопросом о происхождении медиа, с которыми они сталкиваются, они не хотят, чтобы аудитория была встревожена до такой степени, чтобы создать общество нулевого доверия.

"Речь идет не о попытках запугать людей, чтобы они не верили ничему, что видят, - говорит Панетта, - потому что это так же проблематично, как и сама дезинформация".

Как доверие к СМИ можно использовать в качестве оружия, так и недоверие к СМИ тоже можно использовать в качестве оружия.

Как отмечается на выставке, даже теоретическое существование глубоких подделок приводит к "дивидендам лжеца", когда можно намекнуть, что настоящее видео является глубокой подделкой, чтобы посеять семена сомнения.

В 2018 году президент Габона Али Бонго Ондимба выступил с новогодним обращением после того, как перенес инсульт и в результате оказался вне поля зрения общественности. Его политические соперники заявили, что он выглядит неестественно, и выдвинули идею о том, что видео является глубокой подделкой. Хотя эксперты согласились с тем, что видео выглядит странным, никто не мог с уверенностью сказать, фальсификация это или нет, а некоторые объясняли необычность внешнего вида Бонго его плохим здоровьем. Неделю спустя, ссылаясь на странность видео, его противники предприняли попытку переворота, но безуспешно.

Райт говорит, что он и его коллеги стали чаще сталкиваться с ситуациями "плачущего волка" в политической сфере, чем с реальными подделками, которые распространяются и наносят ущерб. "Глубокие подделки могут быть, но они не так часто используются", - говорит он. "Что вам нужно сделать, так это понять источник".

Для каждого, кто перенасыщен информацией, просматривая социальные сети и новости, важно сделать паузу и задать вопрос: "Как эта информация попала ко мне? Кто ее распространяет? И могу ли я доверять этому источнику?" Это может определить, станет ли фейк (или дешевый фейк) серьезной дезинформацией или просто очередным видеороликом в Интернете.

Deepfake: Нестабильные доказательства на экране будут выставлены в Музее движущегося изображения в Квинсе, Нью-Йорк, до 15 мая 2022 года.