OpenAI та Anthropic провели взаємний аудит ШІ-моделей

OpenAI та Anthropic провели взаємний аудит ШІ-моделей

Компанії виявили ризики зловживань і проблеми з підлабузництвом у деяких системах

OpenAI та Anthropic провели взаємний аудит ШІ-моделей
Фото: Gettyimages

OpenAI та Anthropic вперше провели взаємну оцінку своїх відкритих моделей штучного інтелекту й оприлюднили результати.

Про це повідомляє Engadget.

За даними Anthropic, моделі OpenAI o3 та o4-mini показали схожі результати з її власними системами, однак GPT-4o та GPT-4.1 викликали занепокоєння через ризик зловживань. Крім того, певна схильність до підлабузництва спостерігалася в більшості протестованих моделей, окрім o3. У свою чергу OpenAI повідомила, що Claude-моделі Anthropic добре впоралися з тестами на дотримання інструкцій і рідше генерували відповіді в разі невизначеності.

Аудит відбувся на тлі напружених відносин між компаніями: раніше Anthropic обмежила доступ OpenAI до своїх інструментів через підозри в порушенні правил використання. Експерти зазначають, що спільна оцінка може стати важливим кроком у формуванні стандартів безпеки ШІ, особливо з огляду на зростання уваги до ризиків, пов’язаних із використанням чатботів.

Бекграунд. Раніше Mind повідомляв, що Google оновила Gemini: тепер зображення можна редагувати детально через текстові запити. Штучний інтелект дозволяє змінювати фото поетапно та зберігати автентичність людей.

У випадку, якщо ви знайшли помилку, виділіть її мишкою і натисніть Ctrl + Enter, щоб повідомити про це редакцію. Або надішліть, будь-ласка, на пошту [email protected]
Проєкт використовує файли cookie сервісів Mind. Це необхідно для його нормальної роботи та аналізу трафіку.ДетальнішеДобре, зрозуміло