Компанія OpenAI виправила критичну вразливість у своєму інструменті ChatGPT Deep Research, яка могла дозволити зловмисникам отримати доступ до даних Gmail.
Про це повідомляє Bloomberg.
Проблема виникала через інтеграцію з Gmail, яку користувачі могли активувати самостійно. Потенційно це створювало ризик витоку чутливої інформації – як із корпоративних, так і з особистих облікових записів. Інструмент Deep Research, запущений у лютому, покликаний допомагати аналізувати великі масиви інформації та відповідати на складні запити. Його можливості включають підключення до електронної пошти користувача.
У компанії зазначили, що не виявили доказів фактичної експлуатації вразливості. OpenAI повідомила дослідників, що усунула проблему 3 вересня. Фахівці змогли продемонструвати, як ця вразливість працює: вони надсилали тестовий лист із прихованими інструкціями, що змушували Deep Research шукати у вхідних повідомленнях особисті дані та передавати їх на зовнішню адресу. Аналітики зазначають, що цей випадок є рідкісним прикладом того, як саме ШI-агенти можуть бути використані для кібершпигунства, а не лише допомагати хакерам у плануванні атак.
Бекграунд. Раніше Mind повідомляв, що користувачі використовують ChatGPT як «психотерапевта» значно менше, ніж здається. ChatGPT перестав бути переважно інструментом для роботи: 73% діалогів із ботом стосуються розваг.