OpenAI та Anthropic вперше провели взаємну оцінку своїх відкритих моделей штучного інтелекту й оприлюднили результати.
Про це повідомляє Engadget.
За даними Anthropic, моделі OpenAI o3 та o4-mini показали схожі результати з її власними системами, однак GPT-4o та GPT-4.1 викликали занепокоєння через ризик зловживань. Крім того, певна схильність до підлабузництва спостерігалася в більшості протестованих моделей, окрім o3. У свою чергу OpenAI повідомила, що Claude-моделі Anthropic добре впоралися з тестами на дотримання інструкцій і рідше генерували відповіді в разі невизначеності.
Аудит відбувся на тлі напружених відносин між компаніями: раніше Anthropic обмежила доступ OpenAI до своїх інструментів через підозри в порушенні правил використання. Експерти зазначають, що спільна оцінка може стати важливим кроком у формуванні стандартів безпеки ШІ, особливо з огляду на зростання уваги до ризиків, пов’язаних із використанням чатботів.
Бекграунд. Раніше Mind повідомляв, що Google оновила Gemini: тепер зображення можна редагувати детально через текстові запити. Штучний інтелект дозволяє змінювати фото поетапно та зберігати автентичність людей.