OpenAI та Anthropic провели взаємний аудит ШІ-моделей

Компанії виявили ризики зловживань і проблеми з підлабузництвом у деяких системах

Фото: Gettyimages

OpenAI та Anthropic вперше провели взаємну оцінку своїх відкритих моделей штучного інтелекту й оприлюднили результати.

Про це повідомляє Engadget.

За даними Anthropic, моделі OpenAI o3 та o4-mini показали схожі результати з її власними системами, однак GPT-4o та GPT-4.1 викликали занепокоєння через ризик зловживань. Крім того, певна схильність до підлабузництва спостерігалася в більшості протестованих моделей, окрім o3. У свою чергу OpenAI повідомила, що Claude-моделі Anthropic добре впоралися з тестами на дотримання інструкцій і рідше генерували відповіді в разі невизначеності.

Аудит відбувся на тлі напружених відносин між компаніями: раніше Anthropic обмежила доступ OpenAI до своїх інструментів через підозри в порушенні правил використання. Експерти зазначають, що спільна оцінка може стати важливим кроком у формуванні стандартів безпеки ШІ, особливо з огляду на зростання уваги до ризиків, пов’язаних із використанням чатботів.

Бекграунд. Раніше Mind повідомляв, що Google оновила Gemini: тепер зображення можна редагувати детально через текстові запити. Штучний інтелект дозволяє змінювати фото поетапно та зберігати автентичність людей.

Стежте за актуальними новинами бізнесу та економіки у нашому Telegram-каналі Mind.ua та стрічці Google NEWS