Исследователи из Итальянского технологического института обучили искусственно интеллектуальную компьютерную программу проходить невербальный тест Тьюринга. Ведя себя как люди, например, изменяя время своей реакции во время участия в интерактивной игре по сопоставлению форм и цветов, ИИ смог скрыть от людей свою истинную сущность. Соответствующее исследование было опубликовано на этой неделе в журнале Science Robotics.
Тест Тьюринга - это стандарт, используемый компьютерными учеными для определения того, может ли машина продемонстрировать достаточно убедительный уровень человеческого интеллекта, чтобы обмануть другого человека и заставить его поверить, что он тоже может быть человеком. Обычно это делается с помощью версии "игры в имитацию". Игра работает следующим образом: Всего есть три игрока. Один игрок не может видеть двух других игроков, но может общаться с ними, задавая вопросы или взаимодействуя с ними, чтобы определить, кто из двух игроков человек, а кто машина. Компьютер проходит тест Тьюринга, если зритель не может отличить ответы человека от компьютера.
"Учитывая, что наш мозг настроен на обнаружение очень тонких и неявных сигналов человеческого поведения, стоит задаться вопросом, сможет ли человекоподобный робот пройти невербальную версию теста Тьюринга, воплощая человеческие характеристики в своих физических действиях", - пишут исследователи в своем исследовании.
В своем эксперименте они поместили человека и робота в одну комнату. И человек, и робот должны были наблюдать за цветными фигурами на экране. Каждый участник должен был реагировать только на один цвет. Например, одному участнику можно было поручить нажать кнопку только тогда, когда на экране появится красный квадрат, а другому - только тогда, когда на экране появится зеленый квадрат. Но вот в чем загвоздка: роботизированный партнер по команде управлялся дистанционно, иногда человеком, а иногда искусственным интеллектом. ИИ учитывал время реакции своего партнера по команде и произвольно изменял время реакции между появлением фигуры и нажатием кнопки, чтобы казаться более человечным.
После совместного прохождения игры участников попросили угадать, кто управляет их роботом - другой человек или компьютерная программа с искусственным интеллектом. В то время как люди обычно могли определить, когда за роботом стоял другой человек, они испытывали трудности, когда речь шла об ИИ, и ошибались более чем в 50 процентах случаев. "Наши результаты показывают, что намеки на человечность, такие как диапазон изменчивости поведения, могут быть использованы наблюдателями, чтобы приписать человечность роботу-гуманоиду", - пишут исследователи. "Это дает основания для проектирования роботов, целью которого является наделение роботов поведением, которое может восприниматься пользователями как человекоподобное".
Это не первый случай, когда машина проходит тест Тьюринга. В 2014 году на мероприятии, организованном Университетом Рединга, компьютерная программа убедила треть человеческих судей Королевского общества в Лондоне, что это 13-летний мальчик. А буквально в прошлом месяце один из ИИ компании Google также прошел версию этого теста, вызвав споры об этичности такого рода программ. Многие ученые отмечают, что хотя прохождение теста Тьюринга является значимой вехой, из-за недостатков, присущих конструкции теста, он не может быть использован для измерения того, действительно ли машины думают, и, следовательно, не может быть использован для доказательства истинного общего интеллекта.