Динаміка подій в OpenAI – найважливішій світовій компанії в галузі штучного інтелекту (ШІ) – виявилася занадто блискавичною навіть для ринку технологій із його швидкістю та плинністю. Менш як за п’ять днів генерального директора компанії Сема Альтмана було звільнено рішенням Ради директорів, взято на роботу до Microsoft та повернуто на посаду очільника OpenAI, але вже за іншого складу Ради директорів.
Причини рішення, що його ухвалили директори в п’ятницю, 17 листопада, посилаючись на втрату довіри до Альтмана, наразі достеменно невідомі. Є чутки, що йдеться про занепокоєння його сторонніми проєктами, а також незадоволення швидкістю появи комерційних пропозицій на базі технологій, створених OpenAI. Йому також закидають нерозбірливість у доволі чутливих питаннях дотримання безпеки та неглибоку оцінку можливих наслідків діяльності компанії, яка давала обітницю розробляти технологію ШІ «на максимальну користь людству».
Попри те що до Дня подяки всі впоралися з «путчем» і видихнули, проблему, яка лежить в основі цих подій, не вирішено. На думку низки оглядачів, вона полягає у екзистенційному питанні щодо того, як мають розвиватися штучний інтелект і людство, яке його винайшло. Так, видання The Economist називає їх «boomers» та «doomers». Пропонуємо адаптований переклад аналітичного матеріалу щодо конфлікту, який загрожує розколоти Кремнієву долину.
Події в Open AI стали найдраматичнішим виявом глибинного розколу у Кремнієвій долині. На одному боці цього розколу – «технопесимісти» (doomers), які вірять, що неконтрольований розвиток ШІ загрожує існуванню людства, і через те вимагають жорсткого контролю за ним. Їм опонують «технооптимісти» (boomers), які не вірять в апокаліпсис, але сподіваються на здатність технології прискорити прогрес. Сторона, що виявиться впливовішою, або «закрутить гайки», або лібералізує контроль, що у свою чергу визначить, хто найбільше виграє від ШІ в майбутньому.
Корпоративна культура OpenAI сама по собі ілюструє цей розкол. Заснована 2015 року як неприбуткова дослідницька організація, лише за три роки вона створила комерційну структуру, щоб мати гроші на недешеві потужності та зарплати працівникам. Уже тоді стало зрозуміло, що «бумерів» і «думерів» важко поєднати під одним дахом.
Багато технопесимістів є прихильниками «ефективного альтруїзму» – руху, який вбачає загрозу ШІ в тому, що він позбавить людей людяності. Серед них – Даріо Амодеї, який пішов з OpenAI, щоб створити стартап Anthropic, що також працює в галузі генеративного ШІ. Є і менш радикальні «думери» на кшталт корпорації Microsoft, яка опікується безпечністю технології, але не вважає її ризикованою.
Натомість «бумери» дотримуються філософії «ефективної акселерації», яка передбачає не лише скасування контролю за технологією, а й всіляке сприяння її розвитку. Очолює цей табір Марк Андреессен, співзасновник венчурного фонду Adreessen Horowitz. Багато дослідників ШІ симпатизують цьому підходу. Ян Лекун із Meta й Ендрю Ін (співзасновник Coursera), а також ціла низка стартапів на кшталт Hugging Face та Mistral підтримують зменшення контролю.
Альтман намагається догодити обом таборам, публічно закликаючи до обмеження розвитку технології, і паралельно представляючи все більше і більше продуктів від OpenAI, спрямованих на розширення аудиторії штучного інтелекту, як-от маркетплейс застосунків для користувачів, що бажають створити власний чат-бот.
Найбільший інвестор його активної компанії – «поміркована» корпорація Microsoft, яка за понад $10 млрд отримала 49% акцій, але не місце у складі Ради директорів. Її представники через це були дуже незадоволені, що їм повідомили про звільнення Сема Альтмана за кілька хвилин. І саме через це корпорація швидко запропонувала прихисток «опальному» гендиректору та його команді.
Однак поглиблює розкол навіть не філософія. Як повелося, між групами є протиріччя у комерційному вимірі. Песимісти започаткували ШІ-перегони, мають більше капіталу й розробляють закриті та запатентовані моделі. Водночас оптимісти – це невеличкі стартапи, що перебувають у позиції тих, хто наздоганяє, і роблять ставку на відкриті продукти.
ChatGPT, створений компанією OpenAI, за два місяці від моменту запуску набрав понад 100 млн користувачів. На другому місці за перспективнісю – Anthropic, створений вихідцями з OpenAI, який оцінюють у $25 млрд. Розробники у Google першими описали великі мовні моделі – програми, які навчаються на основі грандіозних обсягів даних і є підґрунтям для чат-ботов на кшталт ChatGPT. Google безперервно збільшує та поліпшує моделі, як і власний чат-бот Bard.
Тим часом лідерська позиція Microsoft підживлюється її ставкою на OpenAI. Amazon обговорює інвестиції в розмірі $4 млрд в Anthropic. Однак у світі технологій «перший» не означає «найуспішніший». На ринку, де технологія і продукти, попит і пропозиція розвиваються паралельно та стрімко, новачки мають однакові перспективи в порівнянні зі старожилами.
Це все може додати сил песимістам та їхньому прагненню до посилення правил. У свідченні перед Конгресом США у травні Альтман поділився страхами, що індустрія може «значно зашкодити світу», і закликав законодавців врегулювати галузь. Того ж місяця група з 350 науковців та топменеджерів – у тому числі з OpenAI, Anthropic і Google – підписали онлайн-петицію з попередженням про «ризик вимирання», який несе в собі ШІ поряд із ядерною війною та пандеміями. Однак попри такі перспективи жодна з компаній не підтвердила свої побоювання припиненням розробки власних ШІ-продуктів.
Політики намагаються переконати оточення, що всерйоз сприймають ризики. У липні адміністрація президента Байдена зібрала сімох провідних розробників моделей, зокрема Microsoft, OpenAI, Meta та Google, щоб отримати від них «добровільні зобов’язання» показувати свої ШІ-продукти експертам перед випуском у світ.
1 листопада уряд Великої Британії підписав аналогічну угоду з розробниками, згідно з якою ті мають перевіряти свої продукти на потенційні загрози, наприклад, національній безпеці. За декілька днів до цього Джо Байден випустив наказ для американського бізнесу, відповідно до якого створення великої мовної моделі визначеного розміру – розмір визначатиме алгоритми – потребує інформування уряду та проведення випробувань на безпеку.
Ще одна лінія розколу проходить по майбутньому великих мовних моделей: чи переважатимуть закриті корпоративні продукти (як пропозиції від OpenAI, Anthropic і Google), чи в основу подальшого розвитку ляжуть продукти з відкритим кодом. Лютнева презентація моделі LLAMA від Meta додала «монет» на «відкриту» шальку терезів. Прихильники цього напрямку вказують, що відкриту модель можна перевірити. Опоненти вважають, що відкритий продукт можуть використати зловмисники зі злочинною метою.
Проте є і виключно комерційний аспект розколу, зі значною кількістю зацікавлених сторін. Наприклад, венчурні капіталісти є великим прихильниками моделей із відкритим кодом. Вони дозволяють підтримувати портфельні стартапи на високому технологічному рівні та взагалі – мати справи з ВММ. Внутрішній документ Google, який був оприлюднений у травні, вказує, що безкоштовні у використанні моделі демонструють не гірші результати за своїх «закритих» родичів, але значно дешевші в розробці. Також у документі йдеться, що ані Google, ані OpenAI не мають значного відриву від відкритих продуктів.
Наразі скидається на те, що регулятори більш схильні до аргументів песимістів. Так, розпорядження президента США може сильно загальмувати розробку моделей із відкритим кодом. У документі дуже широко описані «моделі подвійного призначення», що можуть використовуватися із цивільною та воєнною метою. На них розповсюджуються обмеження, які поширюватимуться і на відкриті моделі. Поки що невідомо, чи ставатимуть ці правила жорсткішими.
До того ж не всі технологічні компанії є прихильниками однієї чи іншої сторони. Так, Meta відкрила свою ШІ-модель для розробників, ставши улюбленцем підприємців. Сама ж компанія сподівається, що нові продукти від стартапів зможуть створити новий контент і функціонал, які сподобаються як користувачам, так і рекламодавцям.
Ще одним з «ухилянтів» є Apple. Найбільша технологічна компанія світу підозріло мовчазна, коли йдеться про ШІ. Під час презентації нового iPhone у вересні цього року була анонсована ціла низка функцій на базі ШІ, проте невідомо, коли. Якщо натиснути, представники Apple щось буркотять про «машинне навчання» – іншу назву технології.
І це видається розумною позицією. Події останніх п’яти днів навколо OpenAI показали, якими запеклими можуть бути культурні війни в галузі технології штучного інтелекту. З іншого боку, саме в них формується майбутнє технології, її врегулювання – та вигодонабувачі від цього розвитку.