Компания ChatGPT оклеветала радиоведущего из Джорджии, неточно заявив, что он был обвинен в мошенничестве и присвоении денег Фонда второй поправки (SAF), утверждает иск, поданный в понедельник в суд штата Джорджия.
Ведущий Марк Уолтерс подал иск против компании искусственного интеллекта OpenAI в Высший суд округа Гвиннетт, утверждая, что заявления, сделанные большой языковой моделью компании ChatGPT, были "ложными и злонамеренными". Чатбот также заявил, что Уолтерс является казначеем и главным финансовым директором фонда, хотя на самом деле он "не имеет трудовых или официальных отношений с SAF", говорится в иске.
По словам Gizmodo, это "первый в своем роде иск о клевете", хотя предыдущих случаев "галлюцинации" ChatGPT сомнительной и неточной биографической информации много. Например, в начале этого года ChatGPT ошибочно утверждал, что профессор права Джонатан Терли был обвинен студенткой в сексуальных домогательствах.
В случае с Уолтерсом журналист Фреди Риль попросил ChatGPT кратко описать недавний реальный судебный процесс "Фонд второй поправки (SAF) против Роберта Фергюсона". После того как Риль дал ChatGPT ссылку на это дело, ChatGPT выдал ответ с описанием обвинений против Уолтерса, включая растрату, незаконное присвоение средств и манипуляции с финансовой отчетностью. Проверив обвинения, Рейл "подтвердил, что они были ложными", говорится в иске. Когда ему предъявили претензии, ChatGPT повторил и расширил обвинения, даже предоставил "Доказательство 1", которое было "полной выдумкой и не имело никакого сходства с реальной жалобой, включая ошибочный номер дела". Уолтерс не упоминается в деле The Second Amendment Foundation (SAF) v. Robert Ferguson, которое даже не касается претензий по финансовому учету. "Больше всего в этом деле меня поразил уровень детализации, включая имена людей, юридических фирм и организаций, с которыми я был знаком", - сказал Риль в интервью PopSci в среду. "Уолтерс теперь требует возмещения неопределенного ущерба, который будет определен в ходе судебного разбирательства, а также любой другой помощи, которую суд и присяжные решат присудить. Эксперты в области права сообщили Gizmodo, что исход этого конкретного дела неясен, поскольку Уолтерс должен доказать, что OpenAI знал о ложности информации или безрассудно пренебрегал правдой, а также "действительный злой умысел", чтобы действия ChatGPT были признаны клеветой. Сам ChatGPT не имеет сознания, а OpenAI и подобные компании предлагают отказ от ответственности за то, что их генеративный ИИ может давать неточные результаты. Однако "эти заявления об отказе от ответственности не защитят их от ответственности", - сказала Лирисса Лидски в интервью PopSci. Лидски, заведующая кафедрой конституционного права США Раймонда и Мириам Эрлих в Школе права Университета Флориды, считает, что надвигающийся шквал судебных дел против технологических компаний и их продуктов генеративного ИИ - это "серьезная проблема", с которой судам придется считаться.
По мнению Лидски, разработчики таких ИИ, как ChatGPT, пытаются получить обе выгоды. "Они говорят: "О, вы не можете всегда полагаться на результаты этих поисков", и одновременно рекламируют их как все более совершенные", - объясняет она. "Иначе зачем они существуют, если они абсолютно ненадежны?". И в этом кроется потенциал юридической ответственности, говорит она.
Лидски считает, что, с точки зрения адвоката по диффамации, наиболее "тревожным" аспектом является неоднократно продемонстрированная склонность ИИ полностью выдумывать источники. И хотя дела о диффамации обычно основываются на том, что люди намеренно или случайно лгут о ком-то, виновность нечеловеческого оратора представляет собой собственную проблему, сказала она.
По словам Лидски, простого решения этой растущей проблемы не существует, но в конечном итоге она, вероятно, потребует "продуманного ответа" со стороны законодательных органов. Она предлагает ввести правовую защиту для компаний, в которой говорится, что они не несут ответственности за клевету, созданную ИИ, при условии, что они предпримут шаги по исправлению ложных обвинений, как только получат уведомление об их существовании. Лидски, однако, не слишком верит в то, что политические деятели смогут "чутко отреагировать" на эти дилеммы, которые требуют больших технических знаний о больших языковых моделях, а также прецедентов диффамационного права.
"С одной стороны, мы хотим поощрять инновации, с другой стороны, вы выпускаете инструмент, который изобретает ложь о людях, которая может им навредить", - сказал Лидски. "Как сбалансировать две стороны этого уравнения?"