Распаковка спора о "разумном" искусственном интеллекте Google

Недавние дебаты высветили и другие, более насущные вопросы, связанные с языковой моделью.

Отредактировано 2023-25-06
человек пишущий смс на телефонеЧатбот Google стал предметом нового спора об искусственном интеллекте.

Инженер Google утверждает, что чатбот с искусственным интеллектом (ИИ), на тестирование которого он потратил несколько месяцев, является разумным, несмотря на то, что компания настаивает, что это не так. В своем внутреннем отчете, опубликованном на прошлой неделе в The Washington Post, Блейк Лемуан, старший инженер-программист из группы ответственного ИИ Google, назвал чатбота, известного как LaMDA (языковая модель для диалоговых приложений), "возможно, самым разумным из когда-либо созданных человеком артефактов".

"Но является ли он разумным? На данный момент мы не можем ответить на этот вопрос окончательно, но это вопрос, к которому стоит отнестись серьезно", - написал Лемуан в отчете, прежде чем поделиться с LaMDA примерно 20 страницами вопросов и ответов о его самопровозглашенной разумности в Интернете. В стенограмме этого чата, которую он также опубликовал на Medium, он проанализировал понимание чатботом собственного существования и сознания.

Лемуан говорит, что решил предать гласности эти разговоры после того, как они были рассмотрены и отклонены руководителями Google (The New York Times утверждает, что "сотни" других исследователей и инженеров Google взаимодействовали с LaMDA и "пришли к иному выводу, чем г-н Лемуан"). После этого он был отстранен от работы за нарушение политики конфиденциальности компании, сообщает The Washington Post.

LaMDA построена на архитектуре нейронной сети, которая может синтезировать большие объемы данных, выявлять закономерности, а затем учиться на основе полученных данных. В случае с LaMDA получение большого количества текста дало чатботу возможность участвовать в "свободно текущих" беседах, как заявил Google в прошлом году в пресс-релизе о модели, назвав ее "прорывной технологией общения". Washington Post сообщает, что в том же году генеральный директор компании Сундар Пучай заявил о планах по внедрению LaMDA во многие предложения компании, включая Поиск и Google Assistant.

Эксперты за пределами Google в основном согласились с выводами компании в отношении LaMDA, заявив, что нынешние системы не обладают способностью достигать разумности и скорее предлагают убедительную имитацию человеческого разговора, для чего они и были разработаны.

"Что делают эти системы, не больше и не меньше, так это составляют последовательности слов, но без какого-либо связного понимания мира, стоящего за ними, подобно игрокам в "Эрудит" на иностранном языке, которые используют английские слова в качестве инструментов для набора очков, не имея ни малейшего представления о том, что они означают", - написал исследователь и автор ИИ Гэри Маркус в посте Substack со ссылкой на ряд других экспертов.

Однако при обучении моделей, подобных LaMDA, возникают непосредственные риски, включая "интернализацию предубеждений, зеркальное отражение ненавистнических высказываний или тиражирование вводящей в заблуждение информации", как говорится в пресс-релизе Google от 2021 года. По данным The Washington Post, Лемуан в компании сосредоточился на решении некоторых из этих проблем, разработав "алгоритм справедливости для удаления предвзятости из систем машинного обучения".

Однако он не первый сотрудник Google, работающий в этой сфере, который высказывает опасения по поводу работы компании в области ИИ. В 2020 году два руководителя команды Google по этическому ИИ заявили, что были вынуждены уволиться после того, как выявили предвзятость в языковых моделях компании.