Штучний інтелект Facebook в 90% не розпізнає в постах насильство - WSJ
Компанія і близько не підійшла до того, щоб успішно відстежувати матеріали в соцмережі

Штучний інтелект (АІ) відсіює в соцмережі Facebook лише малу частину проблемного контенту, який містить розпалювання ненависті і насильство, свідчать внутрішні документи компанії, з якими ознайомилася The Wall Street Journal. При цьому топ-менеджери компанії заявляють, що алгоритми працюють успішно.
Згідно з внутрішніми документами, штучний інтелект не може розпізнати відеозаписи зі стріляниною, зроблені від першої особи, і расистські висловлювання. Протягом тижнів, зазначає WSJ, дослідники Facebook також були здивовані тим, що АІ не міг знайти різницю між боями півнів і автокатастрофами.
Боротьба з розпалюванням ненависті також не надто успішна: за оцінками співробітників, компанія видаляє лише невеликий відсоток забороненого контенту.
Люди, відповідальні за «чистоту» платформи, визнають, що компанія і близько не підійшла до того, щоб успішно відстежувати матеріали в соцмережі.
«Проблема в тому, що у нас немає і, ймовірно, ніколи не буде моделі, яка охоплювала б навіть більшу частину шкідливого контенту», – писав старший інженер Facebook в середині 2019 року.
За його оцінкою, автоматизовані системи компанії видаляють пости, які складають всього лише 2% всіх переглядів, пов'язаних з розпалюванням ненависті.
Аналогічного висновку дійшли в березні цього року інші співробітники Facebook. Алгоритми видаляють пости, які складають 3-5% переглядів, пов'язаних з розпалюванням ненависті, і 0,6% всього контенту, який порушує правила соцмережі, підкреслювали вони.
Ця статистика контрастує з тим, що кажуть щодо успіхів штучного інтелекту топ-менеджери Facebook, зазначає WSJ. Так, засновник Марк Цукерберг зазначав, що компанія буде використовувати АІ для виявлення «переважної більшості проблемного контенту» до кінця 2019 року. Крім того, соцмережа заявляла, що майже всі вирази ненависті, які вона видаляє, були виявлені алгоритмами до того, як про це повідомили користувачі. Facebook називає це «коефіцієнтом попереджувального виявлення». Станом на початок цього року він, за даними компанії, досяг майже 98%.
Прес-секретар Facebook заявив, що компанія вживає й інших заходів, щоб зменшити перегляди контенту з розпалюванням ненависті, зокрема, знижує такі пости в новинній видачі. Завдяки цьому поширеність такого контенту скорочується, і це те, що компанія вважає найважливішим показником, зазначив прес-секретар.
Навколо Facebook цієї осені розгорівся черговий скандал після розслідування WSJ: соцмережа визнала шкідливий вплив Instagram, яка належить їй, на підліткову аудиторію, хоча публічно його применшує.
Внутрішні документи злила колишня співробітниця Facebook Френсіс Хауген, яка виступила на цю тему і в Конгресі.
Якщо ви дочитали цей матеріал до кінця, ми сподіваємось, що це значить, що він був корисним для вас.
Ми працюємо над тим, аби наша журналістська та аналітична робота була якісною, і прагнемо виконувати її максимально компетентно. Це вимагає і фінансової незалежності.
Станьте підписником Mind всього за 196 грн на місяць та підтримайте розвиток незалежної ділової журналістики!
Ви можете скасувати підписку у будь-який момент у власному кабінеті LIQPAY, або написавши нам на адресу: [email protected].