Ученые Массачусетского технологического института научили роботов саботировать друг друга

Понимание социальных роботов может помочь психологии, военным и многим другим.

Отредактировано 2023-25-06
руки робота с марионеткамиРазбирая человеческую социализацию на грубые составляющие, можно получить роботов, которые отражают наши тонкие желания.

Может ли робот определить, что его саботируют? Возможно, это не тот вопрос, над которым вы задумываетесь, но именно такие запросы, как этот, послужили мотивацией для проведения необычных исследований в Массачусетском технологическом институте.

С этой целью исследователи из Массачусетского технологического института создали симуляцию двух социально осведомленных роботов, которые теперь могут определить, саботируют их или помогают им. В новой работе, представленной на 2021 конференции по обучению роботов в Лондоне на этой неделе, команда из Массачусетского технологического института продемонстрировала, как они использовали математическую основу для наделения набора роботов социальными навыками, чтобы они могли взаимодействовать друг с другом по-человечески. Затем, в смоделированной среде, роботы могли наблюдать друг за другом, угадывать, какую задачу хочет выполнить другой, а затем выбирать, помогать ему или мешать. По сути, боты думали как люди.

Подобные исследования могут показаться немного странными, но изучение того, как различные виды социальных ситуаций разыгрываются среди роботов, может помочь ученым улучшить взаимодействие человека и робота в будущем. Кроме того, эта новая модель искусственных социальных навыков может также потенциально служить системой измерения социализации человека, что, по словам команды Массачусетского технологического института, может помочь психологам в изучении аутизма или анализе действия антидепрессантов.

Социализация роботов

Многие компьютерные ученые считают, что наделение систем искусственного интеллекта социальными навыками станет последним барьером, который необходимо преодолеть, чтобы роботы стали действительно полезными в наших домах, в таких условиях, как больницы или учреждения по уходу, и были дружелюбны к нам, говорит Андрей Барбу, научный сотрудник Массачусетского технологического института и автор недавней работы. После модернизации ИИ они смогут применить эти инструменты в области когнитивной науки, чтобы "действительно понять что-то количественно, что было очень трудно понять", - говорит он.

"Социальные взаимодействия не особенно хорошо изучены в рамках компьютерных наук или робототехники по нескольким причинам. Трудно изучать социальные взаимодействия. Это не то, чему мы присваиваем четкий номер", - говорит Барбу. "Вы не говорите "это помощь номер 7", когда взаимодействуете с кем-то".

Это отличается от обычных проблем, возникающих в ИИ, таких как распознавание объектов на изображениях, которые достаточно четко определены, говорит он. Даже решение вопроса о том, как взаимодействуют два человека - самый простой уровень проблемы - может быть чрезвычайно сложным для машины.

Как же ученые могут создать роботов, которые не только выполняют задачу, но и понимают, что означает выполнение этой задачи? Можете ли вы попросить робота понять, во что вы играете, выяснить правила, просто наблюдая за вами, и сыграть с вами в игру?

Чтобы проверить, что это возможно, Барбу и его коллеги создали простую двухмерную сетку, по которой могли перемещаться виртуальные роботы-агенты для выполнения различных задач. Агенты на экране выглядели как мультяшные роботы-руки, и им было поручено перенести ведро с водой к дереву или к цветку.

Роботы фотоMIT / Social MDP на Github

Для социализации агентов исследователи позаимствовали несколько советов из психологии, чтобы придумать несколько основных, но различных категорий социальных взаимодействий, которые они затем закодировали в серию действий и реакций. Они адаптировали готовую модель из робототехники под названием Марковский процесс принятия решений (МПР), который представляет собой сеть действий и вознаграждений, помогающих роботизированной системе принимать решения по достижению цели на основе текущего состояния мира. Чтобы добавить социальный элемент, исследователи настроили обратную связь по вознаграждению для роботов таким образом, чтобы они изменяли свои желания в зависимости от потребностей другого робота.

"У нас есть математическая теория, которая говорит, что если вы хотите осуществить социальное взаимодействие, вы должны оценить цель другого агента, а затем применить некоторую математическую функцию к этим целям", - говорит Барбу. "Мы рассматриваем социальное взаимодействие как функцию вознаграждения друг друга". Это означает, что робот А должен учитывать, что собирается сделать робот Б, прежде чем предпринять какое-либо действие. Гипотеза заключается в том, что это основной механизм, лежащий в основе социального взаимодействия у людей.

Но эти типы роботов имеют свои ограничения. Например, они не могут распознавать обычные социальные взаимодействия, такие как культурные традиции вежливости, которые различаются в разных странах. Основная схема исследования заключается в том, что робот-агент 1 смотрит на то, что делает агент 2, затем пытается предсказать цели агента 2, основываясь на своих собственных возможных целях и окружающей обстановке. Затем, если вознаграждение агента А будет соответствовать целям агента Б, то это поможет агенту Б. Однако если вознаграждение будет противоположно целям другого агента, то это помешает другому агенту достичь своей цели.

Исследователи могут добавлять слои, чтобы сделать социальное взаимодействие более сложным. "Есть некоторые атрибуты действия, вознаграждения, цели других агентов, которые вы хотите оценить", - говорит Барбу. "У нас есть более сложные социальные взаимодействия, например, обмен чем-то с другим агентом, где нужно выяснить, сколько это действие стоит для них и сколько стоит для меня".

В качестве следующих шагов команда активно работает над воспроизведением этих моделей с помощью роботов в реальном мире, с добавлением таких взаимодействий, как обмен и принуждение.

Могут ли люди определить, социально ли взаимодействуют роботы?

Чтобы узнать мнение людей о том, насколько хорошо они кодируют социальные взаимодействия, исследователи создали 98 различных сценариев, в которых роботы имели разный уровень социального мышления. Агент уровня 0 может выполнять только физические действия. Сам он не социален и не воспринимает других как социум. Агент уровня 1 имеет физическую цель и является социальным, но не понимает, что другие агенты социальны. Он может помогать, мешать или воровать у других агентов, но не замечает, если другой агент пытается встать на его пути. Агенты второго уровня имеют физические и социальные цели, и он думает, что другие агенты - первого уровня. Поэтому он может избегать саботажа, распознавать, что помощь необходима, и сотрудничать.

Затем двенадцать испытуемых просмотрели 196 видеоклипов с взаимодействием этих роботов, которые, по сути, представляли собой серию компьютерных анимаций. После просмотра их попросили предсказать, насколько социальными были роботы и было ли их взаимодействие негативным или позитивным. В большинстве случаев люди точно определяли, какие социальные взаимодействия происходят.

"Нас также очень интересует когнитивная наука - как люди понимают подобные социальные взаимодействия", - говорит Барбу. "Что улавливают люди? И что происходит, когда люди не соглашаются с нашими моделями?".

Еще один вопрос, над которым размышляет Барбу, - можно ли использовать эту модель для анализа того, как различные виды заболеваний и расстройств, такие как депрессия, посттравматическое стрессовое расстройство или аутизм, могут влиять на социальное взаимодействие людей или их восприятие социального взаимодействия.

Зачем вообще нужны социальные роботы?

Исследование, которое частично финансировалось DARPA и ВВС США, в один прекрасный день может стать основой для изучения усвоения языка и важности контекста в голосовых запросах.

"Подавляющее большинство языка, который мы используем в общении друг с другом, связано с взаимодействием с другими людьми. Поэтому в течение многих лет мы изучали проблему обоснования, - говорит Барбу. Заземление - это взятие чего-то абстрактного, как язык, и соединение его с чем-то практическим, что вы видите в мире".

"Если вы посмотрите на подавляющее большинство того, что человек говорит в течение дня, это связано с тем, чего хотят другие [люди], что они думают, получая от другого [человека] то, что он хочет", - говорит он. "И если вы хотите дойти до того момента, когда у вас будет робот в чьем-то доме, понимание социальных взаимодействий невероятно важно".

Это происходит потому, что слова, которые мы обычно рассматриваем как очень конкретные при распознавании действий, могут иметь разные социальные коннотации. Например, "достать" бутылку с водой - это совершенно иное взаимодействие, чем "достать" ребенка. Хотя технически команды одинаковы, социальная осведомленность подскажет роботу, что с ребенком нужно быть более мягким, чем с бутылкой воды.

Это то, над чем команда работала для DARPA, которая была заинтересована в основном в моделях освоения детского языка, чтобы помочь американским солдатам взаимодействовать с людьми по всему миру, которые не говорят по-английски.

"Трудно обучать модели языкового перевода. Трудно создавать ресурсы для обучения солдат. DARPA заинтересовано в роботах, которые могут овладеть языком так же, как это делают дети, потому что дети овладевают языком не благодаря большому корпусу данных или чему-то подобному", - говорит Барбу. "Они приобретают язык, видя, как [люди] взаимодействуют друг с другом, видя это взаимодействие в физическом контексте".

Они достигли той точки в исследовании, когда им захотелось узнать о языке, который является социальным, и переключились на создание социальных моделей, которые впоследствии будут интегрированы в работу с изучающими язык.

Работа, которую они выполняют для акселератора ИИ ВВС Массачусетского технологического института, аналогичного уровня: они закладывают основу для создания в ВВС помощника ИИ с голосовым интерфейсом, подобного Alexa от Amazon, который сможет отвечать на вопросы о миллиардах документов о системах вооружения, самолетах и многом другом.

"Выяснить, где находится ответ на ваш конкретный вопрос об этом самолете, этой системе вооружения, в этих условиях, довольно сложно", - говорит Барбу. Кроме того, ВВС надеются, что социальный помощник ИИ сможет вести двунаправленный диалог и задавать рациональные вопросы в ответ.