Штучний інтелект Facebook в 90% не розпізнає в постах насильство - WSJ

Штучний інтелект Facebook в 90% не розпізнає в постах насильство - WSJ

Компанія і близько не підійшла до того, щоб успішно відстежувати матеріали в соцмережі

Штучний інтелект Facebook в 90% не розпізнає в постах насильство - WSJ
фото Shutterstock

Штучний інтелект (АІ) відсіює в соцмережі Facebook лише малу частину проблемного контенту, який містить розпалювання ненависті і насильство, свідчать внутрішні документи компанії, з якими ознайомилася The Wall Street Journal. При цьому топ-менеджери компанії заявляють, що алгоритми працюють успішно.

Згідно з внутрішніми документами, штучний інтелект не може розпізнати відеозаписи зі стріляниною, зроблені від першої особи, і расистські висловлювання. Протягом тижнів, зазначає WSJ, дослідники Facebook також були здивовані тим, що АІ не міг знайти різницю між боями півнів і автокатастрофами.

Боротьба з розпалюванням ненависті також не надто успішна: за оцінками співробітників, компанія видаляє лише невеликий відсоток забороненого контенту.

Люди, відповідальні за «чистоту» платформи, визнають, що компанія і близько не підійшла до того, щоб успішно відстежувати матеріали в соцмережі.

«Проблема в тому, що у нас немає і, ймовірно, ніколи не буде моделі, яка охоплювала б навіть більшу частину шкідливого контенту», – писав старший інженер Facebook в середині 2019 року.

За його оцінкою, автоматизовані системи компанії видаляють пости, які складають всього лише 2% всіх переглядів, пов'язаних з розпалюванням ненависті.

Аналогічного висновку дійшли в березні цього року інші співробітники Facebook. Алгоритми видаляють пости, які складають 3-5% переглядів, пов'язаних з розпалюванням ненависті, і 0,6% всього контенту, який порушує правила соцмережі, підкреслювали вони.

Ця статистика контрастує з тим, що кажуть щодо успіхів штучного інтелекту топ-менеджери Facebook, зазначає WSJ. Так, засновник Марк Цукерберг зазначав, що компанія буде використовувати АІ для виявлення «переважної більшості проблемного контенту» до кінця 2019 року. Крім того, соцмережа заявляла, що майже всі вирази ненависті, які вона видаляє, були виявлені алгоритмами до того, як про це повідомили користувачі. Facebook називає це «коефіцієнтом попереджувального виявлення». Станом на початок цього року він, за даними компанії, досяг майже 98%.

Прес-секретар Facebook заявив, що компанія вживає й інших заходів, щоб зменшити перегляди контенту з розпалюванням ненависті, зокрема, знижує такі пости в новинній видачі. Завдяки цьому поширеність такого контенту скорочується, і це те, що компанія вважає найважливішим показником, зазначив прес-секретар.

Навколо Facebook цієї осені розгорівся черговий скандал після розслідування WSJ: соцмережа визнала шкідливий вплив Instagram, яка належить їй, на підліткову аудиторію, хоча публічно його применшує.

Внутрішні документи злила колишня співробітниця Facebook Френсіс Хауген, яка виступила на цю тему і в Конгресі.

 

У випадку, якщо ви знайшли помилку, виділіть її мишкою і натисніть Ctrl + Enter, щоб повідомити про це редакцію. Або надішліть, будь-ласка, на пошту [email protected]
Проєкт використовує файли cookie сервісів Mind. Це необхідно для його нормальної роботи та аналізу трафіку.ДетальнішеДобре, зрозуміло