Деякі експерти прогнозують, що зовсім скоро штучний інтелект винайде ліки від раку, зупинить зміну клімату та розв'яже проблему бідності. Інші ж навпаки вимагають від світових лідерів жорстких заходів, які стримуватимуть розвиток ШІ, бо інакше «на нас чекає катастрофа». Mind розібрався, чи може штучний інтелект знищити людство і як цьому можна запобігти.
Штучний інтелект – це математична модель, яка працює за принципом людського мозку. ШІ здатен навчатися, збирати, обробляти та класифікувати інформацію.
Вперше термін «штучний інтелект» прозвучав у 1956 році на науковій конференції у Дартмутському коледжі. Там презентували програму Аллена Ньюелла та Герберта Саймона «Логічний Теоретик», що імітувала людське мислення у розв’язанні задач. 1966 року Джозеф Вайценбаум створив Елізу – першого у світі віртуального співрозмовника та прототип чатботів. А 1972-го японські науковці представили людиноподібного робота WABOT-1.
Розробникам не завжди вдавалося одержати успішні результати, тож інтерес до ШІ час від часу то згасав, то відновлювався. 1997 року комп’ютерна програма IBM виграла в шахи в чемпіона світу Гарі Каспарова. А 2017-го комп’ютер переміг китайського чемпіона із шашок ґо Ке Цзе.
Завдяки збільшенню комп’ютерних потужностей почали з’являтися нові алгоритми, що дозволяли виконувати складніші завдання, ніж гра в шахи чи ґо. У 2017 році світ побачила модель глибокого навчання «Трансформер», що розпізнає та генерує тексти. Вона стала основою ChatGPT.
Залежно від можливостей розрізняють:
Вузький, або ж слабкий (Artificial intelligence narrow – ANI) – це штучний інтелект, який нас оточує зараз. Він виконує одну або кілька завдань, а процес його навчання відбувається завдяки людині. Приклади ШІ, розробленого під певні потреби: безпілотні автівки, технології машинного зору, голосові помічники на кшталт Siri, алгоритми рекомендацій Netflix і Facebook, нейромережі Chat GPT, Copilot, Bard, LLaMA, Midjourney, DALL-E, Sora.
Загальний (Artificial general intelligence – AGI), або ж сильний ШІ, здатен виконувати багато різних завдань та автономно навчатися без контролю людини. Сильним вважатиметься ШІ, який пройде тест Тюрінга. Його суть: якщо людина під час спілкування з ШІ ідентифікує його як людину, тест пройдено. Такий штучний інтелект зможе виконати будь-яке інтелектуальне завдання, але це не означає, що він продовжить служити людству. Натомість він може стати свідомим і прагнути самовдосконалення, що спричинить створення штучного суперінтелекту.
Штучний суперінтелект (Artificial superintelligence – ASI) – це гіпотетична система штучного інтелекту, який стане можливим після створення AGI. Передбачається, що суперінтелект матиме не лише власну свідомість, а й своє бачення світу та за прогнозами експертів стане останнім винаходом людства. ASI буде гіперінтелектуальною суперістотою зі здатністю обробляти й аналізувати будь-які обсяги даних зі швидкістю та точністю, недосяжною для нашого розуміння.
ASI зможе розв’язувати найскладніші проблеми в різних галузях, розкриє таємниці фізики, допоможе людству досліджувати зірки й навіть зробити людину безсмертною. Супер ШІ перевершить людський розум у мільйони разів. Момент, коли це станеться, називається «технологічною сингулярністю».
Рей Курцвейл – американський винахідник, футуролог та автор книжки «The Singularity Is Near», переконаний, що сильний ШІ з’явиться 2029 року, а технологічної сингулярності ми досягнемо у 2045-му. Ілон Маск вважає, що вже 2025 року можливе створення загального штучного інтелекту.
ChatGPT – нейромережа, яка генерує тексти на основі вашого запиту. ChatGPT складає вірші, пише книжки й наукові роботи, ним користуються студенти та спеціалісти в різних галузях. У березні 2023 року з’явилась оновлена версія GPT-4, яка за своєю потужністю перевершила попередню й викликала неоднозначну реакцію суспільства. Понад 50 000 людей, серед яких розробники ШІ та CEO відомих компаній, підписали відкритий лист із закликом негайно зупинити на 6 місяців навчання систем ШІ, потужніших за GPT-4 й посилити регулювання на законодавчому рівні. Причина: технологія становить «значні ризики для суспільства та людства».
На думку підписантів, питання «Чому важливий штучний інтелект?» вже не стоїть. Набагато важливішими є безпека й регулювання розвитку технології, яка змінить світ. Імовірні причини такі:
Еліезер Юдковські, співзасновник і науковий співробітник Інституту дослідження машинного інтелекту, вважає, що зупинити розробки ШІ на певний час недостатньо. Щоб повернути контроль над ситуацією потрібно взагалі закрити будь-які можливості продовжувати роботу. «Прогрес у можливостях штучного інтелекту значно випереджає прогрес у регулюванні штучного інтелекту або навіть у розумінні того, що відбувається всередині цих систем. Варто обмежити комп’ютерну потужність для тих, хто навчає AI, підписати багатонаціональні угоди та бути готовим придушувати шахрайські центри обробки даних повітряним ударом».
Сем Альтман, СЕО OpenAI заявив, що найбільше його турбують не роботи-вбивці, що розгулюватимуть вулицями, а «дуже тонкі суспільні дисбаланси», які можуть спричинити хаос у системах. Однак він не проти створення єдиної світової організації, що відповідатиме за розвиток ШІ.
Дещо в напрямку регулювання ШІ вже зроблено. 31 жовтня 2023 року генсек ООН Антоніу Гутерреш сформував Консультативний орган із питань штучного інтелекту. А 2 лютого 2024 року країни ЄС ухвалили законопроєкт про штучний інтелект.
Цікава думка Рея Курцвейла, який не підтримав відкритий лист із закликом зупинити експерименти з ШІ на пів року. Футуролог вважає цей лист розпливчастим, непрактичним і малоефективним.
«Ця пропозиція стикається із серйозною проблемою координації: ті, хто погоджуються на паузу, можуть значно відстати від корпорацій чи країн, які не погоджуються. Розвиток штучного інтелекту має величезні переваги в таких критичних галузях, як медицина та охорона здоров’я, освіта, пошук відновлюваних джерел енергії для заміни викопного палива й у багатьох інших сферах. Пауза ставить під загрозу ці життєво важливі напрямки досліджень».