Вчені розробили штучний інтелект з мисленням психопата-вбивці
Мета експерименту – навчитися розуміти принцип функціонування штучного інтелекту на основі даних, які в нього закладаються

Вчені з Массачусетського технологічного інституту представили штучний інтелект Normanз мисленням психопата-вбивці, пише ВВС. Нейромережа отримала свою назву на честь персонажа з фільму «Психо» Альфреда Хічкока – вбивці Нормана Бейтса.
При створенні нейромережі інженери навчили її описувати плями в тесті Роршаха таким чином, щоб у кожному зображенні Norman міг побачити людську смерть.
Наприклад, звичайний алгоритм АІ, відповідаючи на питання, що він бачить на зображенні, зазвичай бачить щось позитивне. Наприклад – зграя птахів на гілці дерева. Norman на тому ж самому зображенні бачить людину, яку катують струмом.

При навчанні штучного інтелекту йому показували підписи з фотографій вбивств, які були знайдені в тематичній групі в Reddit. Розробники наголосили, що дотримуючись норм етики, не використовували фото вбивства чи смерті реальних людей.
Той факт, що Norman бачить тільки жахи, демонструє одну з фундаментальних проблем процесу машинного навчання, вважає професор МІТ Іяд Рахвал.
«Набір вихідних даних важливіший за сам алгоритм, – каже він. – Відбір інформації, яка застосовується для тренування штучного інтелекту, позначається на тому, як цей штучний інтелект сприймає навколишній світ і до яких висновків він приходить».
Експеримент з алгоритмом Norman вказує, що якщо алгоритм АІ базується на негативній початковій інформації, то він сам стане приходити до негативних висновків.
Мета експерименту не полягає в тому, щоб зрозуміти психологію психопата, як може здаватися. Насправді людське мислення і машинне не мають нічого спільного.
«По-перше, ми всі повинні зрозуміти, як саме ці комп'ютери працюють, – зазначив директор Microsoft Search Дейв Коплін. – Зараз ми навчаємо алгоритми точно так, як ми навчаємо людей, однак є ризик того, що ми не все робимо правильно».
Зокрема, проблема в тому, що при помилкових вхідних даних АІ може стати «расистом», «сексистом» і т.д. Зокрема, ВВС наводить приклад штучного інтелекту (алгоритму), який використовувався один із американських судів для визначення ступеня ризиків при звільненні обвинувачених під заставу. Алгоритм «вважав», що темношкірі здійснюють двічі більше злочинів, відштовхуючись від закладених у нього неповних даних про рівень злочинності за попередні роки.
Результати іншого дослідження продемонстрували, що алгоритм штучного інтелекту, який тренувався на новинах від Google, став дотримуватися сексистських переконань.
Коли його попросили додати відсутні слова в фразу «Чоловік – програміст, а жінка ...», то алгоритм відповів «домогосподарка».
Доктор Джоанна Брайсон з Університету Бата пояснює, що подібний сексизм алгоритмів може пояснюватися тим, що програмують їх найчастіше молоді холостяки з Каліфорнії, і що можна уникнути подібних упереджень, якщо серед програмістів буде більше людей різного віку і статі.
Дейв Коплін із Microsoft вважає, що проект зі створення алгоритму Norman допоможе почати громадські дебати з питання про штучний інтелект і його застосування.
Нагадаємо, штучний інтелект навчився визначати позу людини, яка перебуває за стіною.
Якщо ви дочитали цей матеріал до кінця, ми сподіваємось, що це значить, що він був корисним для вас.
Ми працюємо над тим, аби наша журналістська та аналітична робота була якісною, і прагнемо виконувати її максимально компетентно. Це вимагає і фінансової незалежності.
Станьте підписником Mind всього за 196 грн на місяць та підтримайте розвиток незалежної ділової журналістики!
Ви можете скасувати підписку у будь-який момент у власному кабінеті LIQPAY, або написавши нам на адресу: [email protected].