Загрози АІ: технологію потрібно взяти під жорсткий контроль

Загрози АІ: технологію потрібно взяти під жорсткий контроль

І чому АІ дуже вразливий до зловживань, якщо потрапить не в ті руки

Загрози АІ: технологію потрібно взяти під жорсткий контроль
Фото: depositphotos.com

Штучний інтелект (АІ) уже став звичним у багатьох сферах його застосовування. Проте експерти б'ють на сполох, адже технологія разом із безліччю можливостей несе й загрози. Чому варто жорстко контролювати використання АІ, Mind пропонує дізнатися з перекладу матеріалу на innovationorigins.com.  Автор, Юрій Ван Хоймен (Youri Van Heumen), зібрав думки учасників тематичної конференції щодо використання АІ, що відбулася в Нідерландах наприкінці минулого року.

Матеріал підготовлений у партнерстві з бюро перекладів «Профпереклад».

Штучний інтелект (АІ) може значно полегшувати життя. «Але, якщо найближчим часом ми не візьмемо його під жорсткий контроль, справи підуть дуже погано», – попередили критики під час проведення конференції «АІ для всіх – дві сторони однієї медалі» в нідерландському місті Ейндговен.

Експерти, зацікавлені сторони й різноманітні спікери провели день, досліджуючи, як наука та суспільство можуть протидіяти негативному аспекту штучного інтелекту. «Чим дурніший штучний інтелект, тим він кращий», – навіть наполягає Брюс Стерлінг, автор наукової фантастики, журналіст і критик АІ.

Здавалося б, «АІ для всіх»

АІ має багато застосувань, які зовсім трошки полегшують наше життя. Ми вже маємо справу з АІ у багатьох аспектах нашого повсякденного життя. Наприклад, його застосування можна знайти у вашому мобільному телефоні чи автомобілі. До певної міри ми вже навіть не можемо жити без нього. Наприклад, система АІ може виявляти шахрайство з кредитними картками, а поліція використовує її, щоб швидше вистежувати злочинців.

Насправді, штучний інтелект уже користується шаленою популярністю навіть у світі мистецтва.

І хоча АІ має безліч випадків застосування, які дійсно приносять користь, доповідачі також побачили й небезпеку, притаманну цій формі автоматизації. Це пояснюється тим, що системи АІ значною мірою використовують величезні обсяги даних. Чим більше даних у системі, тим розумнішою стає технологія. Не дивно, що й обговорення цього питання також обертається навколо жадібних до даних нейронних мереж.

«Системи, які відчиняють двері і які покладаються виключно на технологію розпізнавання облич, швидкі та безпечні, але, з іншого боку, ця технологія має можливість блокувати цілі групи населення, як-от уйгурів у Китаї», – зазначає Стерлінг. Людям похилого віку також дедалі складніше адаптуватися до нових технологій.

Застосування АІ в певному сенсі створює соціальний розрив. Бо те, що для однієї людини є перевагою, для іншої цілком може бути недоліком. Тож штучний інтелект повільно, але впевнено впливає на все наше суспільство, і часто ми навіть не усвідомлюємо цього.

Читати також: Дайджест Reactor Monitor: штучний інтелект для літаків і китів

АІ не нейтральний

Взяти, наприклад, програмне забезпечення для HR, яке ігнорує жінок при найманні на посаду програміста. Або системи, які починають демонструвати расистські тенденції. Проте цього не можна уникнути повністю.

Зрештою, дані, з якими працюють системи АІ, є відображенням реальності. А людям притаманні упередження. Тож АІ приймає ці так звані упередження.

«Ось чому АІ все частіше сприймається в негативному світлі», – зазначає Стерлінг. «Через це деякі люди називають його катастрофічною технологією. Але інші знаходять у ньому небачені раніше можливості». Наприклад, доповідачі стверджують, що компанії, які повністю підтримують цю технологію, можуть щонайменше подвоїти доходи до 2030 року. А компанії, які не зважають на АІ, відповідно пастимуть задніх і, за прогнозами, втратять близько 20% свого середнього грошового потоку.

Гарна розробка призводить до зловживання

Зрештою, штучний інтелект може дуже швидко привести нас до суспільства, у якому конфіденційність буде повністю зруйнована або навіть зникне. Візьмемо, наприклад, програмне забезпечення для розпізнавання облич на людних торгових вулицях, яке може за лічені секунди визначити, де ви гуляєте. Або ту єдину програму, якій ви надали доступ до вашої камери та дозволили їй працювати у фоновому режимі.

"бюро переводов Профпереклад, бюро перекладів Профпереклад”

«Роблячи так, ми даємо технології можливість стежити за нами і навіть не підозрюємо, що відбувається з нашими даними», – сказав професор Технічного університету Ейндговена Вейнанд Ейсселстейн (Wijnand IJsselsteijn). На його думку, прозорість такого рівня є дуже небезпечним досягненням: «АІ недостатньою мірою піддається поясненню. Через брак прозорості великі технологічні компанії отримують прибуток від усіх зібраних даних, і при цьому ніхто не має жодного уявлення, що з цими даними відбувається.

«АІ дуже вразливий до зловживань, якщо він потрапить не в ті руки. Ось чому зараз говорять про те, що АІ вже давно пора регулювати. Настав час, коли законодавці й уряди повинні підвести межу. АІ може стати настільки руйнівним, наскільки ми самі вирішимо. І як далеко ми дозволимо йому зайти, залежить переважно від нас».

Матеріал підготовлений у партнерстві з бюро перекладів «Профпереклад».

У випадку, якщо ви знайшли помилку, виділіть її мишкою і натисніть Ctrl + Enter, щоб повідомити про це редакцію. Або надішліть, будь-ласка, на пошту [email protected]
Проєкт використовує файли cookie сервісів Mind. Це необхідно для його нормальної роботи та аналізу трафіку.ДетальнішеДобре, зрозуміло