Новый отчет компании Mozilla, создателя браузера Firefox, ориентированного на защиту частной жизни, свидетельствует о том, что пользовательский контроль YouTube неэффективен для контроля того, что люди видят на платформе, несмотря на то, что утверждает Google. Используя данные почти 23 000 добровольцев, Mozilla смогла показать, что YouTube продолжал рекомендовать похожие видео, даже когда люди использовали различные опции, чтобы показать, что они не хотят видеть подобный контент.
YouTube - второй по популярности сайт в мире (первый - Google), и, по данным Mozilla, примерно 70 процентов из 1 миллиарда часов, ежедневно просматриваемых на платформе, являются результатом алгоритмических рекомендаций. Различные отчеты показывают, как алгоритм может поляризовать людей и рекомендовать дезинформацию и вредный контент - то, над чем, как утверждает Google, он упорно работает. В данном исследовании Mozilla поставила перед собой цель проверить эффективность средств контроля, которые YouTube предлагает пользователям для управления рекомендованными видео.
В предыдущем отчете, опубликованном в июле прошлого года, Mozilla обнаружила, что людям регулярно рекомендуют видео, которые они не хотят смотреть, и считают, что доступные им средства контроля неэффективны. В новом исследовании использовался разработанный Mozilla плагин для браузера под названием RegretsReport, чтобы проверить, так ли это на самом деле.
Mozilla рассмотрела четыре различных варианта управления, предложенных Google: "Не нравится", "Не интересно", "Не рекомендую канал" и "Удалить из истории просмотров". Тем временем пользователи плагина RegretsReport увидели кнопку "Прекратить рекомендовать" на видеороликах YouTube. Когда они нажимали на нее, контрольный вариант (как для кнопки "Не нравится"), соответствующий их тестовой группе, отправлялся на YouTube, а данные о будущих рекомендованных видео отправлялись в Mozilla. (Была также контрольная группа, где нажатие на кнопку ничего не давало).
В ходе исследования 22 722 участника использовали RegretsReporter, что позволило Mozilla проанализировать 567 880 195 рекомендованных видео. Чтобы оценить этот огромный объем данных, исследователи проанализировали 40 000 пар рекомендованных видео и оценили их сходство. Это позволило команде количественно изучить, похожи ли рекомендованные участникам видео на те, которые они ранее отвергали. Другими словами, исследователи смогли выяснить, эффективно ли инструменты YouTube сокращают количество плохих рекомендаций.
Например, если кто-то увидел рекомендованное ему видео против прививок, нажал "Не интересно", а затем ему порекомендовали видео про кошек, это будет хорошей рекомендацией. С другой стороны, если им продолжают предлагать видеоролики против вакцинации после того, как они указали, что они их не интересуют, это будет плохая рекомендация. На странице 22 отчета [PDF] есть несколько наглядных примеров.
Отчет Mozilla показал, что ни один из пользовательских элементов управления не был особенно эффективен для предотвращения нежелательных рекомендаций. Опция "Не рекомендовать канал" оказала наибольшее влияние, предотвратив 43 процента плохих рекомендаций, опция "Удалить из истории просмотров" предотвратила 29 процентов, а опции "Не нравится" и "Не интересно" предотвратили 12 и 11 процентов, соответственно. Mozilla утверждает, что ее "исследования показывают, что YouTube не очень заинтересован в том, чтобы узнать, чего действительно хотят его пользователи, предпочитая полагаться на непрозрачные методы, обеспечивающие вовлечение независимо от интересов пользователей".
В результате своих выводов Mozilla призывает людей подписать петицию с просьбой к YouTube исправить свои инструменты обратной связи и предоставить пользователям реальный контроль над видео, которое им рекомендуют. На основании проведенного исследования компания также подготовила четыре конкретные рекомендации для YouTube и разработчиков политики.
Mozilla предлагает, чтобы пользовательские элементы управления YouTube были просты в использовании и понятны, и были разработаны таким образом, чтобы "люди были на месте водителя". Она также хочет, чтобы YouTube предоставил исследователям более широкий доступ к данным (чтобы им не приходилось использовать расширения браузера для изучения подобных вещей). Наконец, он призывает политиков принять законы, обеспечивающие правовую защиту для тех, кто занимается общественными интересами.
Достаточно ли этого отчета для того, чтобы заставить Google добавить реальные средства контроля пользователей на YouTube, пока неизвестно. На данный момент это достаточно убедительное обвинение в неэффективности существующих механизмов контроля.