Журналісти з'ясували, як TikTok формує стрічку рекомендацій для кожного користувача

Журналісти з'ясували, як TikTok формує стрічку рекомендацій для кожного користувача

Головну роль відіграє час перегляду різних відео, а не лайки

Журналісти з'ясували, як TikTok формує стрічку рекомендацій для кожного користувача
фото DR

На рекомендації в TikTok впливає час перегляду роликів – як довго користувач зупинявся на відео, навіть якщо не лайкнув і не поділився ним, йдеться в розслідуванні The Wall Street Journal, на яке посилається TJournal.

Найпопулярніша функція в TikTok – це стрічка рекомендацій. У 2020 році компанія заявляла, що система заснована на чотирьох основних факторах: лайки, репости, підписки і взаємодія з відео.

Користувачі TikTok часто дивуються, наскільки точно працює алгоритм – нібито він «читає думки». Вони відзначають, що не шукають в пошуку і навіть не вимовляють вголос певні речі, але вони потім з'являються у них в стрічці рекомендацій.

Деталі роботи алгоритму рекомендацій компанія ByteDance, що володіє соцмережею, не розкриває. Щоб з'ясувати, як саме він працює, журналісти WSJ створили більше сотні ботів у TikTok, які «переглянули» сотні тисяч роликів.

Ботам привласнили локацію, дату народження і кілька «цікавих» для них тем. Вони не лайкали відео, а тільки проглядали до кінця або дивилися двічі ті ролики, які відповідали їх темам. TikTok з'ясував інтереси одних ботів через дві години, а інших – швидше, ніж за 40 хвилин.

Новому користувачеві TikTok пропонує різні мейнстрімові відео з великою кількістю переглядів. Коли алгоритм розуміє, на яких відео користувач частіше зупиняється, то починає пропонувати більш «нішеві» ролики – наприклад, про готування або ремонт будинків.

Одному з ботів привласнили інтереси «депресія» і «смуток». Спочатку TikTok пропонував йому відео про те, як пережити розставання, але оскільки бот на них не реагував, в рекомендації потрапили ролики про проблеми з ментальними здоров'ям. У результаті стрічка «депресивного бота» на 93% складалася з такого контенту – інші 7% в основному були рекламою;

У TikTok відзначили, що симуляція WSJ не відображає реальну ситуацію, тому що зазвичай у людей різноманітне коло інтересів. Але, як заявили журналісти, навіть акаунти з різнобічними інтересами рано чи пізно опинялися в «кролячій норі». Боти виходили з «нір», тільки коли журналісти міняли їм інтереси.

Бот, який цікавиться політикою, через кілька десятків відео дійшов до конспірологічних теорій QAnon, а бот, який цікавиться сексом, потрапив у «нору» про БДСМ. Чим глибше користувач проникає в «нору», тим небезпечнішим може бути контент, оскільки його менше модерують – журналісти знайшли ролики про булімію, анорексію, заклики до суїциду і розповіді про передозування.

«Додаток відстежує кожну секунду, на яку ви затримуєтеся на відео. TikTok дізнається про ваші таємні інтереси та емоції – і відправляє вас у «кролячу нору» контенту, з якої складно вийти», – зазначають журналісти.

Гійом Шасло, засновник організації Algotransparency, яка забезпечує прозорість алгоритмів YouTube, розповів виданню, що TikTok важливо знаходити контент, який користувачі будуть дивитися частіше: «Алгоритм визначає, що депресивний контент створює залученість, тому просуває його. Таким чином, алгоритм підштовхує людей до все більш і більш небезпечного контенту, щоб змусити дивитися більше відео».

Нагадаємо, китайські фермери стали заробляти мільйони на прямих ефірах у соцмережі.

Стежте за актуальними новинами бізнесу та економіки у наших Telegram-каналах Mind.Live та Mind.UA, а також Viber-чаті