OpenAI та Anthropic провели взаємний аудит ШІ-моделей
Компанії виявили ризики зловживань і проблеми з підлабузництвом у деяких системах

OpenAI та Anthropic вперше провели взаємну оцінку своїх відкритих моделей штучного інтелекту й оприлюднили результати.
Про це повідомляє Engadget.
За даними Anthropic, моделі OpenAI o3 та o4-mini показали схожі результати з її власними системами, однак GPT-4o та GPT-4.1 викликали занепокоєння через ризик зловживань. Крім того, певна схильність до підлабузництва спостерігалася в більшості протестованих моделей, окрім o3. У свою чергу OpenAI повідомила, що Claude-моделі Anthropic добре впоралися з тестами на дотримання інструкцій і рідше генерували відповіді в разі невизначеності.
Аудит відбувся на тлі напружених відносин між компаніями: раніше Anthropic обмежила доступ OpenAI до своїх інструментів через підозри в порушенні правил використання. Експерти зазначають, що спільна оцінка може стати важливим кроком у формуванні стандартів безпеки ШІ, особливо з огляду на зростання уваги до ризиків, пов’язаних із використанням чатботів.
Бекграунд. Раніше Mind повідомляв, що Google оновила Gemini: тепер зображення можна редагувати детально через текстові запити. Штучний інтелект дозволяє змінювати фото поетапно та зберігати автентичність людей.
Якщо ви дочитали цей матеріал до кінця, ми сподіваємось, що це значить, що він був корисним для вас.
Ми працюємо над тим, аби наша журналістська та аналітична робота була якісною, і прагнемо виконувати її максимально компетентно. Це вимагає і фінансової незалежності.
Станьте підписником Mind всього за 196 грн на місяць та підтримайте розвиток незалежної ділової журналістики!
Ви можете скасувати підписку у будь-який момент у власному кабінеті LIQPAY, або написавши нам на адресу: [email protected].