Климатические последствия искусственного интеллекта часто игнорируются

По мнению экспертов, нынешняя шумиха не учитывает того, как ИИ способствует выбросам, дезинформации и добыче ископаемого топлива.

Отредактировано 2023-17-07
Крупные модели ИИ потребляют большое количество вычислительной мощности при разработке и использовании По оценкам исследователей при обучении ChatGPT-3 было выброшено 552 тонны углекислого газа в эквиваленте Скорее всего общий объем выбросов гораздо вышеКрупные модели ИИ потребляют большое количество вычислительной мощности при разработке и использовании. По оценкам исследователей, при обучении ChatGPT-3 было выброшено 552 тонны углекислого газа в эквиваленте. Скорее всего, общий объем выбросов гораздо выше.

"Что-то здесь нечисто", - гласит мартовский бюллетень правого аналитического центра Texas Public Policy Foundation, финансируемого за счет ископаемого топлива. Подпись под этим текстом скрывается под впечатляющим изображением кита, выброшенного на берег, на фоне трех огромных оффшорных ветряных турбин.

В этом изображении действительно есть что-то подозрительное. И не потому, что оффшорный ветер приводит к гибели китов, что является беспочвенным заговором, проповедуемым представителями ископаемого топлива, и который пытаются подкрепить этим изображением. Дело в том, что, как сообщила автор Gizmodo Молли Тафт, фотография была сфабрикована с помощью искусственного интеллекта. Наряду с жутким пикселизированным песком, странно изогнутым пляжным мусором и ошибочно сросшимися лопастями ветряных турбин, на снимке также присутствует характерный радужный водяной знак, созданный искусственным интеллектом - генератором изображений DALL-E.

DALL-E - одна из бесчисленных моделей искусственного интеллекта, популярность которых возросла, особенно в последний год. Но в то время как сотни миллионов пользователей восхищаются способностью ИИ создавать новые изображения и правдоподобные тексты, нынешняя волна шумихи скрыла то, как ИИ может помешать нам добиться прогресса в решении проблемы изменения климата.

Сторонники утверждают, что эти последствия, включая огромные выбросы углекислого газа, связанные с электроэнергией, необходимой для работы моделей, повсеместное использование ИИ в нефтегазовой промышленности для увеличения добычи ископаемого топлива и тревожный рост объемов дезинформации, остаются незамеченными. В то время как многие известные исследователи и инвесторы нагнетают страхи по поводу "богоподобной" технологической силы ИИ или его потенциальной угрозы гибели цивилизации, целый ряд последствий в реальном мире не получает должного внимания.

Многие из них выходят далеко за рамки климатических проблем, включая алгоритмический расизм, нарушение авторских прав и эксплуатацию условий труда работников, помогающих разрабатывать модели ИИ. "Мы воспринимаем технологию как неизбежность и не задумываемся о ее формировании с учетом воздействия на общество, - сказал Grist Дэвид Рольник, профессор информатики в Университете Макгилла и соучредитель некоммерческой организации Climate Change AI.

Однако последствия ИИ, в том числе его влияние на климат и усилия по борьбе с изменением климата, нельзя назвать неизбежными. Эксперты утверждают, что мы можем и должны противостоять этому вреду, но сначала нам необходимо понять его.

Большие модели искусственного интеллекта производят неизвестное количество выбросов

По своей сути ИИ - это "маркетинговый термин", - заявила Федеральная торговая комиссия США еще в феврале. Абсолютного определения того, что такое технология ИИ, не существует. Но обычно, по словам Амбы Кака, исполнительного директора AI Now Institute, под ИИ понимаются алгоритмы, обрабатывающие большие объемы данных для выполнения таких задач, как генерация текста или изображений, составление прогнозов, подсчет оценок и рейтингов.

Повышенная вычислительная мощность означает, что крупные модели ИИ потребляют большое количество вычислительной мощности при разработке и использовании. Возьмем, к примеру, чат-бота ChatGPT из OpenAI, получившего широкую известность благодаря созданию убедительного, похожего на человеческий, текста. По оценкам исследователей, при обучении ChatGPT-3, предшественника созданного в этом году GPT-4, было выброшено 552 тонны углекислого газа в эквиваленте, что равно более чем трем перелетам в оба конца между Сан-Франциско и Нью-Йорком. Общее количество выбросов, скорее всего, гораздо выше, поскольку это число учитывает только однократное обучение ChatGPT-3. На практике же модели могут переобучаться тысячи раз в процессе их построения.

В эту оценку также не включена энергия, потребляемая при ежедневном использовании ChatGPT примерно 13 млн. человек. Исследователи подчеркивают, что фактическое использование обученной модели может составлять 90% энергопотребления, связанного с моделью машинного обучения ИИ. А новейшая версия ChatGPT, GPT-4, скорее всего, требует гораздо больше вычислительных мощностей, поскольку является гораздо более крупной моделью.

Четких данных о том, сколько именно выбросов происходит в результате использования больших моделей искусственного интеллекта миллиардами пользователей, не существует. Однако исследователи из Google обнаружили, что общее потребление энергии моделями ИИ с машинным обучением составляет около 15% от общего энергопотребления компании. По данным Bloomberg, этот объем равен 2,3 тераватт-часам в год - примерно столько электроэнергии потребляют дома в городе размером с Атланту за год.

Отсутствие прозрачности в деятельности компаний, создающих продукты ИИ, таких как Microsoft, Google и OpenAI, означает, что общее количество энергии и выбросов, связанных с технологией ИИ, неизвестно. Например, компания OpenAI не раскрыла, какие данные были поданы в модель ChatGPT-4 в этом году, сколько вычислительной мощности было использовано и как изменился чатбот.

"Мы говорим о ChatGPT и ничего о нем не знаем", - заявил агентству Bloomberg Саша Лучиони, исследователь, изучавший "углеродный след" моделей искусственного интеллекта. "Это могут быть три енота во фраке".

Искусственный интеллект подпитывает дезинформацию о климате в Интернете

ИИ также может кардинально изменить способы потребления и доверия к информации в Интернете. Британская некоммерческая организация Center for Countering Digital Hate протестировала чат-бота Bard компании Google и обнаружила, что он способен создавать вредные и ложные нарративы на такие темы, как COVID-19, расизм и изменение климата. Например, Bard сообщил одному из пользователей: "Мы ничего не можем сделать, чтобы остановить изменение климата, поэтому нет смысла беспокоиться об этом".

По мнению Рольника, способность чат-ботов распространять дезинформацию заложена в их конструкции. "Большие языковые модели предназначены для создания текста, который выглядит хорошо, а не соответствует действительности", - сказал он. "Цель состоит в том, чтобы соответствовать стилю человеческой речи, а не опираться на факты", что "как нельзя лучше подходит для создания дезинформации".

Google, OpenAI и другие крупные технологические компании обычно пытаются решить проблемы контента по мере внедрения этих моделей в реальную жизнь. Но эти попытки часто оказываются "замазанными" решениями, говорит Рольник. "При более глубоком тестировании контента обнаруживается, что эти предубеждения закодированы гораздо более коварными и тонкими способами, которые не были исправлены компаниями, внедряющими алгоритмы", - сказал он.

Джулио Корси, исследователь из британского Центра Леверхульма по изучению будущего интеллекта, занимающийся изучением дезинформации о климате, считает, что еще большую опасность представляют изображения, созданные ИИ. В отличие от текста, созданного в индивидуальном масштабе с помощью чат-бота, изображения могут "распространяться очень быстро и разрушать чувство доверия к тому, что мы видим", - сказал он. "Если люди начинают последовательно сомневаться в том, что они видят, я думаю, что это довольно тревожное поведение".

Дезинформация о климате существовала задолго до появления инструментов искусственного интеллекта. Но теперь у таких групп, как Texas Public Policy Foundation, появилось новое оружие в их арсенале для атак на возобновляемую энергетику и климатическую политику, и изображение кита-рыбы указывает на то, что они уже используют его.

Воздействие искусственного интеллекта на климат зависит от того, кто и как его использует

Исследователи подчеркивают, что последствия применения ИИ в реальном мире не предопределены - они зависят от намерений и действий тех, кто его разрабатывает и использует. По словам Корси, ИИ может быть использован "как в положительных, так и в отрицательных целях", когда речь идет об изменении климата.

Например, ИИ уже используется учеными-климатологами для дальнейших исследований. Просматривая огромные массивы данных, ИИ помогает создавать климатические модели, анализировать спутниковые снимки для борьбы с вырубкой лесов и более точного прогнозирования погоды. Кроме того, системы искусственного интеллекта могут помочь повысить эффективность солнечных батарей, контролировать выбросы при производстве энергии, оптимизировать системы охлаждения и отопления и т.д.

В то же время ИИ активно используется в нефтегазовом секторе для увеличения добычи ископаемого топлива. Несмотря на то что компании Microsoft, Google и Amazon заявляют о своих целях по снижению выбросов парниковых газов в атмосферу, они подвергаются критике за выгодные контракты с нефтегазовыми компаниями, такими как ExxonMobil, Schlumberger, Shell и Chevron, на поставку программного обеспечения для облачных вычислений и ИИ.

В отчете Гринпис за 2020 год было показано, что такие контракты существуют на всех этапах нефтегазовых операций. Компании, добывающие ископаемое топливо, используют технологии искусственного интеллекта для обработки огромных массивов данных с целью поиска месторождений нефти и газа и повышения эффективности всей цепочки поставок - от бурения до транспортировки, хранения и переработки. По данным консалтинговой компании Accenture, в период с 2016 по 2025 год аналитика и моделирование с использованием ИИ могут принести нефтегазовому сектору до 425 млрд долл. дополнительной прибыли.

Применение искусственного интеллекта в нефтегазовом секторе "совершенно однозначно ведет к увеличению глобальных выбросов парниковых газов, опережая низкоуглеродные источники энергии", - сказал Рольник.

Представитель Google Тед Лэдд сообщил Grist, что, хотя компания по-прежнему имеет действующие контракты на облачные вычисления с нефтегазовыми компаниями, в настоящее время она не занимается созданием пользовательских алгоритмов ИИ для облегчения добычи нефти и газа. Представитель Amazon Скотт Лабелль подчеркнул, что контракты Amazon с нефтегазовыми компаниями на разработку ИИ направлены на то, чтобы сделать "их традиционный бизнес менее углеродоемким", а представитель Microsoft Эмма Детвайлер сообщила Grist, что Microsoft предоставляет передовые программные технологии нефтегазовым компаниям, которые взяли на себя обязательства по достижению нулевого уровня выбросов.

В настоящее время отсутствует какая-либо серьезная политика, направленная на регулирование ИИ

По словам Корси, когда речь идет о том, как можно использовать ИИ, это "Дикий Запад". Отсутствие регулирования вызывает особую тревогу, если учесть масштабы внедрения ИИ, добавил он. Facebook, которая использует искусственный интеллект для рекомендаций постов и продуктов, насчитывает около 3 млрд. пользователей. "В таких масштабах ничего нельзя сделать без какого-либо надзора, - сказал Корси, - кроме ИИ".

В ответ на это такие правозащитные группы, как Public Citizen и Институт AI Now, призвали технологические компании, ответственные за создание этих продуктов, нести ответственность за вред, наносимый искусственным интеллектом. В докладе AI Now "Ландшафт 2023 года" содержится призыв к правительствам "возложить на компании бремя доказывать, что они не наносят вреда", а не полагаться на общественность и политиков, которые будут расследовать и находить решения для устранения вреда от ИИ постфактум. Сторонники и исследователи ИИ также призывают повысить прозрачность и требования к отчетности о разработке, использовании данных, энергопотреблении и выбросах в атмосферу моделей ИИ.

Тем временем политические деятели постепенно приходят в курс дела, связанного с управлением ИИ. В середине июня Европейский парламент одобрил проект правил первого в мире закона, регулирующего эту технологию. Готовящийся к принятию закон об искусственном интеллекте, который, скорее всего, будет введен в действие только через два года, будет регулировать технологии ИИ в зависимости от степени их предполагаемого риска для общества. Проект закона запрещает использование технологии распознавания лиц в общественных местах, запрещает генеративным языковым моделям, таким как ChatGPT, использовать материалы, защищенные авторским правом, и требует, чтобы модели ИИ маркировали свой контент как созданный ИИ.

Защитники надеются, что готовящийся закон - это только первый шаг к тому, чтобы привлечь компании к ответственности за вред, наносимый искусственным интеллектом. "Эти вещи уже сейчас создают проблемы", - сказал Рик Клейпул, директор по исследованиям Public Citizen. "И причина, по которой они создают проблемы, заключается в том, что они используются людьми для достижения своих целей".