Amazon, Google, Meta, Microsoft та інші офіційно зобов'язалися стежити за безпекою своїх систем ШІ

Amazon, Google, Meta, Microsoft та інші офіційно зобов'язалися стежити за безпекою своїх систем ШІ

Компанії розроблятимуть механізми, які відрізнятимуть звичайний контент від створеного штучним інтелектом

Американські Amazon.com Inc, Microsoft Corp., Meta, Google, що входить до Alphabet Inc., і ще три компанії добровільно взяли на себе зобов'язання щодо гарантування безпеки своїх рішень у сфері штучного інтелекту (ШІ).

Про це йдеться на сайті Білого дому.

Зокрема, компанії зобов'язалися перевіряти систем ШІ на безпеку ще до випуску, зокрема із залученням незалежних експертів, інформувати учасників галузі, владу, громадськість про управління ШІ-ризиками, інвестувати в кібербезпеку та сприяти виявленню вразливостей у своїх системах.

Крім того, компанії розроблятимуть механізми, які дадуть змогу відрізняти звичайний контент від створеного штучним інтелектом, зокрема й ті, що передбачають використання водяних знаків, а також публічно інформуватимуть про можливості, обмеження та види належного й неналежного використання своїх систем ШІ.

Фірми, до числа яких, крім вищезазначених, входить OpenAI, яка розробила популярний чат-бот ChatGPT, і стартапи Anthropic та Inflection, також зобов'язалися приділяти підвищену увагу аналізу потенційних суспільних ризиків, пов'язаних із використанням систем ШІ.

Різке зростання комерційних інвестицій в інструменти генеративного (такого, що створює контент) ШІ, які можуть створювати нові зображення й писати тексти, схожі на твори людини, викликали в людей не лише захоплення, а й занепокоєння здатністю таких інструментів уводити користувачів в оману й поширювати дезінформацію, зазначає Associated Press. На генеративному штучному інтелекті заснований, зокрема, ChatGPT.

Бекграунд. Нагадаємо: нещодавно стало відомо, що Google домовляється з медіа про використання ШІ для написання новин. Компанія вже провела переговори з New York Times, Washington Post і власником Wall Street Journal.

У випадку, якщо ви знайшли помилку, виділіть її мишкою і натисніть Ctrl + Enter, щоб повідомити про це редакцію. Або надішліть, будь-ласка, на пошту [email protected]
Проєкт використовує файли cookie сервісів Mind. Це необхідно для його нормальної роботи та аналізу трафіку.ДетальнішеДобре, зрозуміло