Кайл Маховальд - доцент кафедры лингвистики, Техасский университет в Остине, Колледж свободных искусств; Анна А. Иванова - кандидат наук в области мозга и когнитивных наук, Массачусетский технологический институт (MIT).
Когда вы читаете предложение, подобное этому, ваш прошлый опыт подсказывает вам, что оно написано мыслящим, чувствующим человеком. И в данном случае эти слова действительно напечатал человек: [Hi, there!] Но в наши дни некоторые предложения, которые кажутся удивительно похожими на человеческие, на самом деле генерируются системами искусственного интеллекта, обученными на огромном количестве человеческих текстов.
Люди настолько привыкли считать, что свободное владение языком исходит от мыслящего, чувствующего человека, что доказательства обратного трудно уложить в голове. Как люди могут ориентироваться на этой относительно неизведанной территории? Из-за устойчивой тенденции ассоциировать беглое выражение с беглым мышлением естественно, но потенциально ошибочно, думать, что если модель ИИ может бегло выражать свои мысли, это означает, что она думает и чувствует так же, как люди.
Поэтому, пожалуй, неудивительно, что бывший инженер Google недавно заявил, что система искусственного интеллекта Google LaMDA обладает чувством собственного достоинства, поскольку может красноречиво генерировать текст о своих предполагаемых чувствах. Это событие и последующее освещение в СМИ привело к появлению ряда справедливо скептических статей и постов об утверждении, что вычислительные модели человеческого языка являются разумными, то есть способными думать, чувствовать и переживать.
Вопрос о том, что значит для модели ИИ быть разумной, является сложным (см., например, мнение нашего коллеги), и наша цель здесь не в том, чтобы решить его. Но как исследователи языка, мы можем использовать нашу работу в области когнитивной науки и лингвистики, чтобы объяснить, почему людям слишком легко попасть в когнитивную ловушку, думая, что существо, которое может свободно использовать язык, является разумным, сознательным или интеллектуальным.
Использование искусственного интеллекта для создания человекоподобного языка
Текст, генерируемый такими моделями, как LaMDA от Google, трудно отличить от текста, написанного человеком. Это впечатляющее достижение - результат десятилетней программы по созданию моделей, генерирующих грамматически осмысленный язык.
Ранние версии, появившиеся по крайней мере в 1950-х годах, известные как модели n-грамм, просто подсчитывали количество встречающихся конкретных фраз и использовали их для предположения, какие слова могут встречаться в определенных контекстах. Например, легко понять, что "арахисовое масло и желе" - более вероятная фраза, чем "арахисовое масло и ананасы". Если у вас достаточно английского текста, вы будете видеть фразу "peanut butter and jelly" снова и снова, но, возможно, никогда не увидите фразу "peanut butter and pineapples".
Современные модели - наборы данных и правил, приближенные к человеческому языку, - отличаются от этих ранних попыток несколькими важными аспектами. Во-первых, они обучаются практически на всем Интернете. Во-вторых, они могут изучать взаимосвязи между словами, находящимися на большом расстоянии друг от друга, а не только между соседними словами. В-третьих, они настраиваются огромным количеством внутренних "регуляторов" - настолько большим, что даже инженерам, которые их разрабатывают, трудно понять, почему они генерируют одну последовательность слов, а не другую.
Однако задача моделей остается такой же, как и в 1950-х годах: определить, какое слово, скорее всего, будет следующим. Сегодня они настолько хорошо справляются с этой задачей, что почти все предложения, которые они генерируют, кажутся плавными и грамматически правильными.
Арахисовое масло и ананасы?
Мы попросили большую языковую модель GPT-3 завершить предложение "Арахисовое масло и ананасы___". Она сказала: "Арахисовое масло и ананасы - отличное сочетание. Сладкий и соленый вкус арахисового масла и ананаса прекрасно дополняют друг друга". Если это сказал человек, можно сделать вывод, что он попробовал арахисовое масло и ананас вместе, составил свое мнение и поделился им с читателем.
Но как GPT-3 придумал этот абзац? Сгенерировав слово, которое соответствовало контексту, который мы предоставили. А затем еще одно. И потом еще одно. Модель никогда не видела, не трогала и не пробовала ананасы - она просто обработала все тексты в Интернете, в которых они упоминаются. И все же чтение этого абзаца может заставить человеческий разум - даже разум инженера Google - представить GPT-3 как разумное существо, которое может рассуждать о блюдах из арахисового масла и ананасов.
В человеческом мозге заложена способность угадывать намерения, скрывающиеся за словами. Каждый раз, когда вы вступаете в разговор, ваш мозг автоматически строит мысленную модель вашего собеседника. Затем вы используете слова, которые они говорят, чтобы заполнить модель целями, чувствами и убеждениями этого человека.
Процесс перехода от слов к мысленной модели происходит плавно и запускается каждый раз, когда вы получаете полноценное предложение. Этот когнитивный процесс экономит вам много времени и усилий в повседневной жизни, значительно облегчая ваше социальное взаимодействие.
Однако в случае с системами искусственного интеллекта он дает осечку, создавая ментальную модель из воздуха.
Более подробное исследование может выявить серьезность этой осечки. Рассмотрим следующий вопрос: "Арахисовое масло и перья отлично сочетаются по вкусу, потому что___". ГПТ-3 продолжил: "Арахисовое масло и перья отлично сочетаются, потому что они оба имеют ореховый вкус. Арахисовое масло также гладкое и кремообразное, что помогает компенсировать текстуру перьев".
Текст в этом случае такой же беглый, как и в нашем примере с ананасами, но на этот раз модель говорит нечто явно менее разумное. Начинаешь подозревать, что GPT-3 никогда не пробовал арахисовое масло и перья.
Приписывание интеллекта машинам, отрицание его у людей
Печальная ирония заключается в том, что та же когнитивная предвзятость, которая заставляет людей приписывать человечность GPT-3, может заставить их обращаться с настоящими людьми бесчеловечными способами. Социокультурная лингвистика - изучение языка в его социальном и культурном контексте - показывает, что предположение о слишком тесной связи между свободным выражением и свободным мышлением может привести к предубеждению против людей, которые говорят по-другому.
Например, люди с иностранным акцентом часто воспринимаются как менее интеллектуальные и имеют меньше шансов получить работу, на которую они претендуют. Подобные предубеждения существуют в отношении носителей диалектов, которые не считаются престижными, таких как южный английский в США, в отношении глухих людей, использующих языки жестов, и людей с дефектами речи, такими как заикание.
Эти предубеждения глубоко вредны, часто приводят к расистским и сексистским предположениям и вновь и вновь доказывают свою необоснованность.
Свободное владение языком само по себе не означает человечность
Станет ли когда-нибудь ИИ разумным? Этот вопрос требует глубокого осмысления, и философы размышляли над ним на протяжении десятилетий. Однако исследователи пришли к выводу, что нельзя просто доверять языковой модели, когда она говорит вам о своих чувствах. Слова могут вводить в заблуждение, и слишком легко принять беглую речь за беглую мысль.