С момента своего первого запуска в 2016 году TikTok собрал более 1 миллиарда ежемесячных пользователей. Ключ к его успеху заключается в прокручиваемом и бесконечном потоке видеороликов, которые, кажется, нацелены прямо на вас. В течение долгого времени люди задавались вопросом, какие данные собирает приложение для обмена микро-видео, принадлежащее компании ByteDance, о своих пользователях, чтобы узнать, как накормить эту машину контента. Теперь мы приблизились к разгадке.
В воскресенье репортер The New York Times получил внутренний документ инженерной команды TikTok в Пекине, в котором объясняется, как "лайки", комментарии, время просмотра и доли попадают в алгоритм рекомендаций, который затем оценивает, насколько привлекательным является видео для конкретного пользователя. Кроме того, скриншот, который увидела Times, подразумевает, что команда модераторов контента может видеть видео, которые вы отправляете друзьям или загружаете в частном порядке, что дает еще более глубокий уровень персонализации.
Это упрощенное разложение алгоритма предлагает "откровенный взгляд на математическое ядро приложения и понимание компанией человеческой природы - нашей склонности к скуке, нашей чувствительности к культурным признакам - что помогает объяснить, почему приложение так трудно опустить", - пишет Times. Но она также подчеркнула, как алгоритм может направить вас в кротовую нору токсичного контента, который "может побудить к самоповреждению".
Новые подробности основываются на результатах расследования, проведенного в начале этого года газетой The Wall Street Journal, которая использовала 100 автоматизированных аккаунтов "ботов", чтобы проследить миграцию опыта пользователя на TikTok от широкого спектра популярных, мейнстримовых видео к более целевому, специфическому контенту. Например, бот, которого WSJ запрограммировал на общий интерес к политике, в итоге получил видео о предвыборных заговорах и QAnon. Представитель TikTok опроверг сообщение WSJ, заявив, что их эксперимент "не является репрезентативным для реального поведения пользователей, поскольку люди имеют разнообразные интересы".
Согласно документу, с которым ознакомилась газета Times, уравнение для рейтинга видео на основе активности пользователей обычно учитывает комбинацию лайков, комментариев, воспроизведения и времени, проведенного за роликом. Где-то там есть формула, которая также рассчитывает, насколько интересны отдельные авторы для зрителей. "Система рекомендаций выставляет оценки всем видео на основе этого уравнения и возвращает пользователям видео с самыми высокими оценками", - сообщает Times.
Проблема инвентаризации
Конечная цель - представить такую линейку контента, которая максимально увеличит время, проведенное пользователями в приложении, и заставит их вернуться. Но инженеры TikTok понимают, что если они будут показывать пользователю только один тип видео, то ему станет скучно и он покинет приложение. Чтобы решить эту проблему, они предложили два дополнения к алгоритму, которые будут показывать больше видео от авторов, которые, по их мнению, вам нравятся, и введут суточный лимит на видео с одинаковыми тегами. Кроме того, они рассмотрели возможность разнообразить рекомендации на вкладке "Для вас", перемежая контент, который может вам понравиться, с другими, которые вы обычно не видите.
"Основная идея заключается в том, что они хотят, чтобы на странице были глаза. Вы хотите заставить людей использовать ваш продукт", - говорит Джошуа Такер, содиректор Центра социальных медиа и политики Нью-Йоркского университета.
Я думаю, что гениальность TikTok заключается в интерфейсе, когда вы можете обратиться к своим подписчикам или сказать: "TikTok, покажи мне то, что, по твоему мнению, я хотел бы увидеть", - говорит Такер. Таким образом, TikTok решил то, что Такер называет "проблемой инвентаризации", от которой страдали такие платформы, как Facebook, а первоначально и Twitter. Машинное обучение теперь позволяет приложениям обрабатывать огромное количество данных и делать выводы о личных предпочтениях, а не представлять каждому пользователю одни и те же основные варианты контента. Помимо ваших предпочтений, платформы хотят узнать, как может измениться ваше взаимодействие в зависимости от вашей сети. Например, будете ли вы смотреть контент, потому что его смотрят ваши друзья?
Facebook ограничен, поскольку, кроме рекламы, он показывает только сообщения от друзей и страниц, за которыми вы следите. А в Twitter долгое время отображались только твиты пользователей, за которыми вы следили. Если вы заметили новинку в Twitter, эти "темы", то это решение проблемы инвентаря", - говорит Такер. "Это дает вам возможность получить больше инвентаря, что означает, что они могут попробовать больше вещей, чтобы увидеть, что вам понравится". TikTok сделал это с самого начала с "Для тебя"".
Человеческие модераторы контента TikTok имеют дело со спорным контентом, который компьютерным алгоритмам трудно отсортировать. Они могут удалять контент, ограничивать количество просмотров видео, не давать видео в рекомендации или в ленту, согласно документу, полученному Netzpolitik в результате утечки. Поскольку TikTok все больше автоматизирует свои системы проверки, создатели могут обратиться к человеческим модераторам контента, если они считают, что их видео были удалены по ошибке.
Насколько хорошо TikTok знает вас?
Возможно, причина, по которой TikTok может так быстро определить ваши вкусы, заключается в том, что у них гораздо больше данных о том, что вам может нравиться, предполагает Такер.
В июне прошлого года TikTok предоставил редкий внутренний взгляд на работу своего алгоритма рекомендаций. В своем блоге компания написала, что данные, относящиеся к взаимодействию с пользователем (лайк, комментарий или следование за аккаунтом), информация о видео (подписи, звуки и хэштеги) и настройки аккаунта (языковые предпочтения, местоположение) взвешиваются системой для расчета интересов пользователя.
Хотя TikTok утверждает, что использует "лайки", комментарии и акции в качестве показателей для измерения вашей вовлеченности в конкретный контент, WSJ обнаружил, что наиболее важным элементом, который анализирует приложение, является время просмотра видео - сразу ли вы отстранились, поставили на паузу или пересматривали. Алгоритм видит, на что вы реагируете, и может быстро определить "тот фрагмент контента, который вас уязвим, который заставит вас кликнуть, который заставит вас смотреть, но это не значит, что он вам действительно нравится и что именно этот контент вам нравится больше всего", - сказал WSJ специалист по анализу данных Гийом Шасло, ознакомившись с экспериментом. По данным WSJ, по мере того, как поток пользователя становится более нишевым, он с большей вероятностью встретит вредный контент, который менее проверен модераторами. Это вызывает озабоченность, поскольку пользовательская база TikTok, как правило, моложе, чем другие социальные медиа-платформы, такие как Facebook или Youtube.
Постоянный контроль
Алгоритмы рекомендаций веб-сайтов стали объектом повышенного внимания с тех пор, как разоблачитель Facebook Фрэнсис Хауген выступил в Конгрессе с показаниями о том, что такие веб-сайты, на которых приоритет отдается вовлеченности, а не безопасности, могут подвергаться риску распространения опасной дезинформации. Законодатели отреагировали на это обсуждением возможных изменений в законодательстве, чтобы возложить на платформы, использующие эти алгоритмы, ответственность за вред, который может быть причинен рекомендованным контентом.
Исследуя алгоритмы рекомендаций YouTube, Такер заинтересовался вопросом, действительно ли алгоритм направляет вас к определенному контенту, или же дело в индивидуальном выборе людей. "В любом случае, если на этих платформах есть контент, способствующий восхвалению самоубийства среди детей, этот контент не должен быть там, независимо от того, как вы к нему попали", - говорит Такер.
TikTok утверждает, что бдительно удаляет контент, который, по его мнению, нарушает его правила (в том числе контент о членовредительстве). В прошлом компания заявляла, что использует комбинацию компьютеров и людей для проверки контента. Но ошибки случаются, и иногда видео неправильно помечаются или проскальзывают через фильтры.
В сентябре TikTok сообщил в пресс-релизе, что выпускает новые "руководства по благополучию" для поддержки пользователей, которые делятся своим личным опытом через платформу, и предлагает советы по ответственному взаимодействию. Он также объявил о расширении поисковых интервенций, чтобы лучше предоставлять ресурсы кризисной поддержки, когда пользователи ищут тревожный контент.
"Это настоящий вызов для этих компаний, потому что они такие большие", - говорит Такер. "TikTok рос слишком быстро. То же самое произошло с Facebook: она росла слишком быстро, поэтому не знала о вреде, который причиняется, например, на разных языках".