Accenture створила інструмент, що допоможе компаніям дізнатись, чи є їхній штучний інтелект неупередженим

Accenture створила інструмент, що допоможе компаніям дізнатись, чи є їхній штучний інтелект неупередженим

Програмне забезпечення дозволить визначати, чи не дискримінують алгоритми машинного навчання людей за расою, статтю та віком

Accenture створила інструмент, що допоможе компаніям дізнатись, чи є їхній штучний інтелект неупередженим
Фото Shutterstock

Консалтингова фірма Accenture розробила новий інструмент, який зможе допомогти компаніям виявляти та виправляти гендерні, расові та етнічні упередженості в програмному забезпеченні штучного інтелекту. Про це повідомляє Bloomberg.

Компанії та уряди всі частіше звертаються до алгоритмів машинного навчання, які допомагають приймати важливі рішення, наприклад такі, як надання страховки, іпотеки чи урядових пільг та, навіть, надання умовно-дострокового звільнення.

Одним із аргументів на користь використання такого програмного забезпечення є те, що при правильному проектуванні та навчанні воно може приймати рішення без упереджень, які зазвичай мають вплив на рішення, що приймають люди.

Але серед широко розповсюджених випадків були знайдені приклади алгоритмів, що дискримінують меншини та жінок. Для прикладу: алгоритм, який багато міст та штатів США використовували для прийняття рішень про звільнення під заставу, вдвічі частіше помилково вказував на те, що чорношкірі підсудні є більш схильними до повторного здійснення злочину, ніж «білі».

Accenture розробила програмний інструмент, який виконує три функції: дозволяє користувачам визначати поля даних, які вони вважають чутливими, такі як раса, стать або вік, а надалі бачити, наскільки ці поля корелюють з іншими даними.

Вперше цей інструмент було продемонстровано 12 червня в Лондоні, де представники компанії розповіли, що використовують техніку спільної інформації, яка по суті прибирає зміщення в алгоритмах. Продукт також забезпечує візуалізацію, що дозволяє розробникам зрозуміти, як на точність їхньої моделі впливає цей зв'язок між змінними.

Нарешті, метод Accenture оцінює справедливість алгоритму з точки зору «передбачуваного паритету» – це неправдиві негативні та псевдопозитивні показники, однакові для чоловіків та жінок, наприклад. І знову інструмент підкаже розробникам, що відбувається з загальною точністю їх моделі, оскільки вони вирівнюють прогностичну чіткість серед підгруп.

«Люди, схоже, хочуть використовувати «кнопкове» вирішення, яке, якимось чарівним способом, вирішуватиме проблему справедливості», – сказала Румман Чоудхурі, яка очолює підрозділ компанії Accenture, що займається штучним інтелектом, та додала, що такі очікування є нереалістичними. Вона пояснила: цінність інструменту полягає в тому, що він наглядно демонструє, що часто існує компроміс між загальною точністю алгоритмів та їхньою справедливістю та неупередженістю.

У випадку, якщо ви знайшли помилку, виділіть її мишкою і натисніть Ctrl + Enter, щоб повідомити про це редакцію. Або надішліть, будь-ласка, на пошту [email protected]
Проєкт використовує файли cookie сервісів Mind. Це необхідно для його нормальної роботи та аналізу трафіку.ДетальнішеДобре, зрозуміло