Нащадки Тьюрінга. Що відбувалося на саміті зі штучного інтелекту в Блечлі-парку

Нащадки Тьюрінга. Що відбувалося на саміті зі штучного інтелекту в Блечлі-парку

Чого світова спільнота сподівається дочекатися від ШІ, а чого побоюється?

Нащадки Тьюрінга. Що відбувалося на саміті зі штучного інтелекту в Блечлі-парку
Фото: depositphotos.com

Саміт із питань регулювання технології штучного інтелекту, організований урядом Великої Британії, зібрав світових політиків, компанії та дослідників. Попри показову єдність і кілька позитивних повідомлень, серед учасників доволі багато протиріч, щоб можна було говорити про міжнародний консенсус. Що ж саме відбувалося під час цієї непересічної події, досліджував Mind.

У 1950 році Алан Тюрінг, талановитий британський математик і криптограф, опублікував академічну статтю. Метою його допису була відповідь на запитання «Чи можуть машини мислити?». Для відповіді знадобилося майже 12 000 слів. Проте закінчення статті лаконічне: «Ми можемо бачити лише обмежене майбутнє, проте і так ми можемо побачити, як багато всього ще треба зробити».

Нащадки Тюрінга. Що відбувалося на саміті зі штучного інтелекту в Блечлі-парку
Фото: DR

Сімома десятиліттями пізніше ця теза стала ілюстрацією для саміту з безпеки ШІ, який зібрав у Великій Британії багатьох політиків, дослідників і технічних лідерів. Учасниками заходу стали топменеджери технологічних та суто ШІ-компаній, зокрема Anthropic, Google DeepMind, IBM, Meta, Microsoft, Nvidia, OpenAI та Tencent. Також участь взяли представники неурядових організацій на кшталт британського Інституту Ади Лавлейс та Алгоритмічна ліга справедливості із США.

Як і свого часу Алан Тюрінг, сучасні лідери держав і технологій обговорювали своє бачення майбутнього в маєтку Блечлі-парк: раніше там розміщувалась Урядова школа кодів і шифрів, а 1–2 листопада 2023 року велися дискусії щодо правил існування штучного інтелекту.

Хто та як саме прагне «кермувати» штучним інтелектом?

На думку головного організатора, британського прем’єра Ріші Сунака, цей захід мав позиціонувати країну як лідера глобальних перегонів у гамуванні та регулюванні штучного інтелекту.

Варто зазначити, що Велика Британія останнім часом дійсно виявляє неабияку активність у галузі штучного інтелекту. Нещодавно уряд призначив Яна Гогарта, технологічного підприємця та інвестора, на посаду голови робочої групи з ризиків ШІ. Ця група звітує безпосередньо прем’єр-міністру.

Нащадки Тюрінга. Що відбувалося на саміті зі штучного інтелекту в Блечлі-парку
Фото: DR

До відкриття Саміту ШІ був залучений навіть король Чарльз ІІІ, який надіслав відеопривітання учасникам заходу. «Ми є свідками одного з найбільших технологічних проривів в історії людської цивілізації. Існує чітка потреба пересвідчитися в тому, що ця технологія, яка стрімко розвивається, буде безпечною та надійною», – сказав він.

Проте Велика Британія не єдина має лідерські амбіції. У понеділок, 30 жовтня, за два дні до саміту Сполучені Штати анонсували 100 аркушів законодавчої ініціативи щодо врегулювання технології ШІ.

Джина Раймондо, міністерка торгівлі та співочільниця делегації США на саміті, заявила, що Штати збираються розробити «найкращі у своєму роді» стандарти. Її колега, віцепрезидентка Камала Харріс, також отримала свої 15 хвилин слави, напередодні початку саміту виступивши в посольстві США в Лондоні й зробивши низку заяв щодо планів по врегулюванню ШІ.

Задля справедливості варто зазначити, що учасників цих перегонів багато: «Закон про ШІ» від Європейського Союзу має бути узгоджений протягом кількох найближчих тижнів, також існують законодавчі ініціативи від КНР.

Про що вдалося домовитися?

Представники 28 урядів, зокрема України, США та Китаю, уклали декларацію щодо контролю та управління ризиками, пов’язаними з розвитком ШІ.

Читайте також: Україна підписала першу в історії декларацію про безпечне використання штучного інтелекту

Вранці 1 листопада уряд Великої Британії оприлюднив документ під назвою «Декларація Блечлі», його підписали представники 28 країн – учасниць саміту, серед яких США та Китай. У документі попереджається про небезпеку, що її потенційно можуть нести найбільш розвинуті ШІ-системи.

«Існує можливість серйозної, навіть катастрофічної шкоди, навмисної чи ненавмисної, яку здатні завдати найсучасніші ШІ-моделі. Багато ризиків, пов'язаних із ШІ, мають міжнародний характер, тому їх найкраще вирішувати шляхом міжнародної співпраці. Ми маємо намір працювати разом, щоб забезпечити орієнтованість на людину, надійність і відповідальність штучного інтелекту», – йдеться в декларації.

Метою декларації є встановлення порядку денного, на який винесено:

  • виявлення ризиків, що викликає найбільше занепокоєння в урядів, оскільки незрозуміло, яким буде вплив ШІ на навколишній світ;
  • формування наукових алгоритмів, здатних передбачати й аналізувати ризики;
  • розробка міждержавних політик задля пом’якшення впливу ризиків на довкілля.

Уряди вперто не вірять у добро, і намагаються передбачити або принаймні запобігти ризикам, що створює технологія штучного інтелекту. Відправною точкою стала презентація ChatGPT минулого року, яка запустила глобальне божевілля довкола технології.

Велика мовна модель, яка лежала в основі ChatGPT, показала, що майбутні покоління ШІ-систем можуть пришвидшити постановку діагнозів, допомогти в боротьбі зі змінами клімату та поліпшити виробничі процеси, а також нести загрози робочим місцям, інформаційній і національній безпеці. У звіті, шо минулого тижня оприлюднив уряд Великої Британії, вказується, що ШІ «може допомогти зловмисникам вчиняти кібератаки, проводити дезінформаційні кампанії та створювати біологічну чи хімічну зброю».

Єдиний безумовно позитивний фактор щодо «Декларації Блечлі»: підписи представників Пекіну та Вашингтону останнім часом нечасто можна побачити на одному документі.

Нащадки Тюрінга. Що відбувалося на саміті зі штучного інтелекту в Блечлі-парку
Міністр торгівлі США Джина Раймондо та державний секретар Великої Британії з науки, інновацій і технологій Мішель Донелан слухають виступ заступника міністра науки та технологій Китаю Ву Чжаохуея
Фото: DR

Ву Чжаохуей, віцеміністр з питань науки та технологій Китаю, заявив, що Пекін бажає «налагодити діалог і комунікацію» з іншими країнами щодо безпеки ШІ. Китай розробляє власне регулювання штучного інтелекту, сказав він, додавши, що технологія є «непевною, незрозумілою та непрозорою».

Також домовлено провести наступний саміт за пів року в Південній Кореї, а через рік – третій із серії таких самітів у Франції. Проте критики наголошують, що жодних принципових цілей не вказано.

А що буде потім?

Обговорення на саміті показали наявність фундаментально різних поглядів на майбутнє ШІ у технологічній галузі.

Наприклад, Ян Лекун, провідний науковець компанії Meta й адепт відкритого програмного забезпечення, звинуватив Google, OpenAI та ще декількох учасників саміту в «нагнітанні страху» задля домінування на комерційному ринку ШІ та впливу на процеси регулювання. На це Деміс Хассабіс, генеральний директор DeepMind, ШІ-компанії Google, відповів, що важливо почати встановлювати правила якомога раніше. Ну, і назвав роздуми Яна «безглуздими» – тож у дискусії буде продовження.

Читайте також: Повстання машин скасовується: як у США планують регулювати штучний інтелект

Колишній очільник Google Ерік Шмідт водночас повідомив про створення неприбуткової організації Future House, завданням якої буде створення моделі штучного інтелекту, яка займатиметься метааналізом: збиратиме й аналізуватиме наукові дослідження, взаємодіятиме з користувачами, які ставитимуть їй наукові запитання, а згодом має «навчитися» самостійно створювати наукові гіпотези для майбутніх досліджень.

При цьому керівники Future House одразу заявили, що роботи буде багато. Крім щоденного виходу до 10 000 наукових матеріалів, модель доведеться вчити знаходити помилки, не зважати на них при формуванні відповіді та взагалі намагатися не вводити в оману й не дезінформувати користувачів. Чим насправді зараз грішать більшість продуктів на основі штучного інтелекту.

Нащадки Тюрінга. Що відбувалося на саміті зі штучного інтелекту в Блечлі-парку
Фото: DR

А поки лідери не можуть домовитись, видавник Collins, який відповідає за однойменний словник, визнав «ШІ» словом 2023 року. Тлумачення ШІ, за Collins – «моделювання психічних функцій людини за допомогою комп'ютерних програм». За останній рік частота використання абревіатури збільшилася в чотири рази і «стало темою, що домінує у розмовах у 2023 році».

У випадку, якщо ви знайшли помилку, виділіть її мишкою і натисніть Ctrl + Enter, щоб повідомити про це редакцію. Або надішліть, будь-ласка, на пошту [email protected]
Проєкт використовує файли cookie сервісів Mind. Це необхідно для його нормальної роботи та аналізу трафіку.ДетальнішеДобре, зрозуміло