OpenAI усунула вразливість у ChatGPT, яка могла відкрити доступ до Gmail-користувачів

Дослідники виявили, що хакери могли використати інструмент Deep Research для викрадення особистих і корпоративних даних

Фото: Gettyimages

Компанія OpenAI виправила критичну вразливість у своєму інструменті ChatGPT Deep Research, яка могла дозволити зловмисникам отримати доступ до даних Gmail.

Про це повідомляє Bloomberg.

Проблема виникала через інтеграцію з Gmail, яку користувачі могли активувати самостійно. Потенційно це створювало ризик витоку чутливої інформації – як із корпоративних, так і з особистих облікових записів. Інструмент Deep Research, запущений у лютому, покликаний допомагати аналізувати великі масиви інформації та відповідати на складні запити. Його можливості включають підключення до електронної пошти користувача.

У компанії зазначили, що не виявили доказів фактичної експлуатації вразливості. OpenAI повідомила дослідників, що усунула проблему 3 вересня. Фахівці змогли продемонструвати, як ця вразливість працює: вони надсилали тестовий лист із прихованими інструкціями, що змушували Deep Research шукати у вхідних повідомленнях особисті дані та передавати їх на зовнішню адресу. Аналітики зазначають, що цей випадок є рідкісним прикладом того, як саме ШI-агенти можуть бути використані для кібершпигунства, а не лише допомагати хакерам у плануванні атак.

Бекграунд. Раніше Mind повідомляв, що користувачі використовують ChatGPT як «психотерапевта» значно менше, ніж здається. ChatGPT перестав бути переважно інструментом для роботи: 73% діалогів із ботом стосуються розваг.

Стежте за актуальними новинами бізнесу та економіки у нашому Telegram-каналі Mind.ua та стрічці Google NEWS