Модерация контента - работа, как известно, неприятная, и развивающаяся индустрия аутсорсинга труда, связанная с ней, регулярно подвергается тщательному анализу на предмет этичности подхода к привлечению людей к работе в самых темных уголках интернета. В среду Time опубликовал новое расследование, посвященное компании Sama, которая недавно предоставила OpenAI работников, занимающихся исключительно чтением самого плохого контента, который только может предложить Интернет.
Хотя общей целью проекта была разработка полезных и необходимых внутренних ИИ-фильтров для популярной и популярной программы ChatGPT, бывшие сотрудники Sama говорят, что теперь они страдают от посттравматического стрессового расстройства из-за того, что просеивали тысячи ужасных текстовых отрывков, описывающих сексуальное насилие, инцест, скотоложство, насилие над детьми, пытки и убийства, говорится в новом отчете. Кроме того, в отчете говорится, что этим сотрудникам, в основном работающим в Кении, платили менее 2 долларов в час.
Программа ChatGPT от OpenAI быстро стала одним из самых обсуждаемых технологических прорывов прошлого года благодаря своей способности практически мгновенно генерировать творческий текст на основе практически любой подсказки человека. Хотя подобные программы уже существуют, они часто извергают ненавистный и откровенно оскорбительный контент из-за своей неспособности внутренне идентифицировать токсичный материал среди множества интернет-текстов, используемых в качестве генеративных точек отсчета.
ChatGPT, насчитывающий уже более 1 миллиона пользователей, в значительной степени свободен от подобных проблем (хотя многие другие проблемы остаются), в основном благодаря дополнительной встроенной системе фильтрации ИИ, призванной отсеять большую часть ужасного в Интернете. Но, несмотря на свою полезность, существующие программы ИИ недостаточно самосознательны, чтобы самостоятельно заметить неприемлемый материал - сначала им требуется обучение людей, чтобы отметить всевозможные контекстуальные ключевые слова и тематику.
На своей домашней странице Sama, американская компания Sama, занимающаяся маркировкой данных и нанимающая работников в Кении, Индии и Уганде для предприятий Кремниевой долины, утверждает, что помогла более 50 000 человек по всему миру вырваться из нищеты благодаря своим возможностям трудоустройства. Однако, согласно исследованию Time, проведенному на основе сотен страниц внутренних документов, контрактов и платежных ведомостей, десятки работников подвергались "пыткам" за почасовую оплату от $1,32 до $2.
Сотрудники утверждали Time, что они работали намного больше положенного времени, просеивая 150-250 тревожных текстовых отрывков в день и отмечая содержание для обучения ИИ-фильтра ChatGPT. Хотя услуги консультантов по оздоровлению были доступны, сотрудники Sama, тем не менее, испытывали затяжные эмоциональные и психические нагрузки, которые превышали возможности этих служб. В заявлении, предоставленном Time, компания Sama оспаривает объем работы и говорит, что их подрядчики должны были просматривать только около 70 текстов в смену.
"Эти компании представляют нам ИИ и автоматизацию так, будто они устраняют работников, но в действительности это редко бывает так", - объясняет Пэрис Маркс, критик технологической культуры и автор книги "Дорога в никуда: What Silicon Valley Gets Wrong About Transportation, объясняет PopSci. "... Это снова история с модераторами контента Facebook - некоторые из них также были наняты в Кении компанией Sama".
Маркс утверждает, что единственный способ избежать такого рода психической и физической эксплуатации потребует масштабной культурной перестройки в технологической индустрии, что в настоящее время кажется маловероятным. "Это модель развития ИИ, которую выбрали эти компании", - пишут они, - "[и] изменение ее потребует полного пересмотра целей и основополагающих предположений того, что они делают".
Sama первоначально заключила с OpenAI контракт на модерацию контента на сумму 200 000 долларов США, связанный с проектом, но, как сообщается, рано разорвала связи, чтобы сосредоточиться на "решениях по аннотации данных компьютерного зрения". В настоящее время OpenAI ведет переговоры с инвесторами о привлечении финансирования с оценкой в 29 миллиардов долларов, из которых 10 миллиардов долларов может получить Microsoft. Агентство Reuters ранее сообщало, что OpenAI рассчитывает на доход в 200 миллионов долларов в этом году и до 1 миллиарда долларов в 2024 году. Как еще раз показывает последнее разоблачение, эти доходы часто достигаются ценой больших закулисных затрат для обычных рабочих.