Adobe учит искусственный интеллект распознавать фотошопленные изображения

ИИ все лучше распознает подделки, но фальсификаторы действуют быстро.

Отредактировано 2023-15-06
Adobe учит искусственный интеллект распознавать фотошопленные изображения
Инструмент поддельных изображений AdobeИИ ищет подсказки, указывающие на ошибочные правки.

Люди манипулируют фотографиями с момента появления потребительских камер более века назад. В результате циники пытались разглядеть эти манипуляции и разоблачить мошенничество в течение такого же времени. По мере развития инструментов редактирования, методы выявления подлых правок отставали - по крайней мере, за пределами таких областей, как правоохранительные органы и криминалистика изображений.

В арсенале Adobe для поиска подделок есть несколько инструментов, использующих искусственный интеллект. Недавно компания объявила об исследованиях, проведенных совместно с Калифорнийским университетом в Беркли, которые направлены на обнаружение изменений, внесенных в лицо, с помощью встроенной в Photoshop функции под названием Face Aware Liquify. Еще предстоит пройти долгий путь, прежде чем вы сможете направить программное обеспечение на фотографию и получить безошибочный ответ о ее подлинности, но подобные проекты могут оказаться незаменимыми, поскольку мы все чаще сталкиваемся с убедительными, но мошенническими видео, известными как глубокие подделки.

О какой манипуляции идет речь?

Это не первый опыт Adobe в области проверки подлинности изображений с помощью искусственного интеллекта. На самом деле, компания уже опубликовала данные о методах, направленных на более распространенные способы редактирования изображений, такие как склеивание изображений, удаление объектов с фотографии или копирование и вставка одного участка изображения в другой. Все это - хорошо известные стратегии подделки.

Однако эти приемы, как правило, используются человеком-редактором, который видит изображение и готовый продукт, но может не заметить след, оставленный им о своей работе. Например, копирование и вставка элемента из одного места в другое может нарушить картину цифрового шума, создаваемого матрицей цифровой камеры.

Новое исследование, однако, описывает технику, которая предназначена для реверсирования редактирования, в котором в первую очередь использовался ИИ.

Разглаживайте кожу лица

Инструмент Liquify в Photoshop существует на протяжении многих поколений программы. Разжижение изображения позволяет сдвигать и раздвигать пиксели. Это распространенный инструмент для ретушеров, поскольку с его помощью легко (к лучшему или худшему) сделать определенную часть тела модели толще или тоньше. Однако несколько версий назад Adobe анонсировала Face Aware Liquify, который использует искусственный интеллект для распознавания отдельных элементов на лице и позволяет ретушерам легко управлять такими переменными, как размер и форма глаз, носа и рта.

Используя Face Aware Liquify, вы можете крутить ползунки до упора и творить поистине кошмарные вещи, но используйте их тонко, и вы сможете изменить лицо или выражение человека таким образом, что иногда это невозможно заметить, если вы не видели оригинала.

В своем исследовании Adobe показывала пары изображений - одну измененную фотографию и оригинал - как нейронной сети, так и людям. Люди могли определить измененную фотографию примерно в 53 процентах случаев, но нейронная сеть, как сообщается, достигла точности около 99 процентов. Кроме того, ИИ мог иногда отменять правки, чтобы получить приближение к оригиналу, используя комбинацию подсказок, таких как искажения, вызванные оригинальными эффектами деформации.

Бремя доказывания

Хотя подобные инструменты полезны, еще предстоит пройти долгий путь, прежде чем процесс обнаружения подделок догонит процесс их создания. Хани Фарид, профессор информатики из Калифорнийского университета в Беркли, недавно рассказал Washington Post, что число исследователей, пытающихся обнаружить фальшивые видео, превышает 100 к 1 число тех, кто работает над тем, чтобы сделать видео более убедительным и трудным для обнаружения.

И даже если технологии догонят друг друга, все еще есть много переменных, и не последняя из них - заставить людей доверять суждениям ИИ, особенно когда контент, который он оценивает, может быть политическим или поляризующим. Существует также извечная проблема проверки изображений: подтверждение того, что фото или видео не подвергалось цифровым изменениям, может придать слишком большое доверие к его сообщению. Фотограф или видеограф все еще активно выбирает, какую информацию представить и как ее преподнести, поэтому все еще очень возможно ввести зрителей в заблуждение без каких-либо цифровых манипуляций.

На данный момент нет возможности опробовать инструменты, поэтому вы не можете попробовать их самостоятельно, но поскольку Adobe и другие компании, а также военные, продолжают работать над подобными технологиями, ожидайте новых новостей о них. Кроме того, ожидайте увидеть больше поддельных изображений и видео.