То, что искусственный интеллект может вести беседу, не делает его умным

Эти модели ИИ могут отвечать и писать по-человечески, но они не всегда верны на 100 процентов.

Отредактировано 2023-25-06
Скриншот домашней страницы обновленной поисковой системы Microsoft BingСовершенно новый Bing, теперь с добавкой ChatGPT.

Разговорные инструменты на базе ИИ становятся все более популярными, что, по мнению многих исследователей дезинформации, является серьезным поводом для беспокойства. На этой неделе компания Google анонсировала Bard, свой ответ на ChatGPT от Open AI, и удвоила усилия по внедрению функций искусственного интеллекта во многие свои основные продукты на мероприятии в Париже. Аналогичным образом, компания Microsoft объявила о том, что ChatGPT скоро будет интегрирован в Bing, ее так называемую поисковую систему. В ближайшие месяцы эти разговорные инструменты станут широко доступны, но уже сейчас начинают появляться некоторые проблемы.

Разговорные ИИ создаются на основе нейронных сетей, называемых "большими языковыми моделями" (БЯМ), и невероятно хороши в создании грамматически связного текста, который кажется правдоподобным и похожим на человеческий. Они могут это делать, поскольку обучаются на сотнях гигабайт человеческих текстов, большинство из которых взято из Интернета. Для создания нового текста модель будет работать, предсказывая следующий "токен" (по сути, слово или фрагмент сложного слова), учитывая последовательность токенов (многие исследователи сравнивают это с упражнениями "заполни пробел", которые мы проходили в школе).

К сожалению, этот метод предсказания правдоподобных следующих слов и предложений означает, что разговорные ИИ часто могут быть фактически неверными, и если вы уже не владеете информацией, вас легко ввести в заблуждение, потому что они говорят так, будто знают, о чем говорят. PopSci технически больше не является журналом, но Google продемонстрировал это еще лучше, выпустив Bard. (Именно поэтому большие языковые модели могут воспроизводить теории заговора и другие оскорбительные материалы, если их специально не обучать этому).

Один из демонстрационных вопросов в объявлении Google (которое на момент написания статьи все еще находится в режиме реального времени) звучал так: "О каких новых открытиях космического телескопа Джеймса Вебба я могу рассказать своему 9-летнему ребенку?". В ответ Бард предложил три пункта, включая один, в котором говорилось, что "JWST сделал самые первые снимки планеты за пределами нашей Солнечной системы".

Хотя это звучит так, как и следовало ожидать от самого большого космического телескопа из когда-либо созданных, и JWST действительно обнаруживает экзопланеты, он не нашел первую из них. По данным Reuters и NASA, эта честь принадлежит Очень большому телескопу Европейской южной обсерватории (VLT), который обнаружил одну из них в 2004 году. Если бы это произошло в результате того, что кто-то обратился к Барду за советом, а не в рамках очень публичного объявления, то не нашлось бы десятков экспертов по астрономии, готовых вмешаться и исправить ситуацию.

Microsoft использует более откровенный подход. Издание The Verge обнаружило, что в новом FAQ Bing говорится, что "ИИ может ошибаться" и что "Bing иногда искажает найденную информацию, и вы можете увидеть ответы, которые звучат убедительно, но являются неполными, неточными или неуместными". Далее в нем содержится призыв к пользователям использовать собственные суждения и перепроверять факты, которые предлагает ИИ. (В сообщении также говорится, что вы можете спросить Bing: "Откуда вы взяли эту информацию?", чтобы узнать, какие источники он использовал для создания ответа).

Тем не менее, со стороны Microsoft это выглядит как отговорка. Да, люди должны скептически относиться к информации, которую они читают в Интернете, но на Microsoft также лежит ответственность за то, чтобы инструменты, которые она предоставляет миллионам пользователей, не были просто выдуманы и представлены так, как будто это правда. Поисковые системы, такие как Bing, являются одним из лучших инструментов для проверки фактов - они не должны увеличивать количество дезинформации.

И это бремя может быть юридически обеспечено. Закон ЕС о цифровых услугах, который вступит в силу в 2024 году, содержит положения, направленные на предотвращение распространения дезинформации. Несоблюдение нового закона может привести к штрафам в размере до 6 процентов от годового оборота компании. Учитывая недавнюю серию крупных штрафов, наложенных ЕС на американские технологические компании, и существующее положение о том, что поисковые системы должны удалять определенные виды информации, неточность которой может быть доказана, кажется правдоподобным, что блок из 27 стран может занять жесткую позицию в отношении дезинформации, генерируемой искусственным интеллектом, которая отображается на видном месте в Google или Bing. Они уже вынуждены занимать более жесткую позицию в отношении других форм генерируемой дезинформации, таких как deepfakes и поддельные аккаунты в социальных сетях.

Поскольку эти разговорные ИИ скоро станут широко и свободно доступными, мы, вероятно, увидим больше дискуссий о том, насколько уместно их использование, особенно если они претендуют на роль авторитетного источника информации. А пока давайте помнить, что таким ИИ гораздо легче создать грамматически связный бред, чем написать адекватный, проверенный на факты ответ на запрос.