Родини жертв масового розстрілу в Канаді подали позов проти OpenAI та Сема Альтмана
Позивачі вважають, що причиною могло бути небажання розкривати проблеми напередодні виходу компанії на біржу
Родини жертв одного з найкривавіших масових розстрілів у Канаді подали позов до суду США проти OpenAI та її генерального директора Сем Альтман, звинувативши компанію у недбалості, що, за їхніми словами, могла сприяти трагедії.
Джерело. Про це пише Reuters.
Позов подано до федерального суду в Сан-Франциско. Позивачі стверджують, що системи ChatGPT ще за вісім місяців до нападу ідентифікували стрільця як потенційно небезпечного, однак компанія не повідомила правоохоронців.
За твердженням сторони обвинувачення, внутрішні системи зафіксували розмови про насильство ще в червні 2025 року. Команда безпеки рекомендувала звернутися до поліції, але керівництво компанії відхилило це рішення.
Позивачі також вважають, що причиною такого рішення могло бути небажання розкривати масштаби проблемного контенту напередодні потенційного виходу компанії на біржу.
Йдеться про стрілянину в канадському місті Тумблер-Рідж у лютому 2026 року. Напад забрав життя дев’яти людей, серед яких – діти.
За даними слідства, 18-річна Джессі Ван Рутселар спершу застрелила членів своєї родини, згодом напала на школу, де вбила учнів і працівника, після цього вона вчинила самогубство.
Одна з постраждалих – 12-річна дівчинка – вижила після трьох поранень і перебуває у критичному стані.
У OpenAI назвали трагедію «жахливою» та наголосили на політиці нульової толерантності до використання своїх технологій для насильства.
Компанія заявила, що вдосконалила системи виявлення загроз і покращила реагування на тривожні сигнали і зараз активніше спрямовує користувачів до психологічної допомоги.
Також раніше Сем Альтман публічно висловив співчуття та визнав, що випадок потребує серйозного аналізу.
Цей позов став частиною зростаючої хвилі судових справ проти компаній, що розробляють штучний інтелект. У різних країнах їх звинувачують у недостатньому контролі за шкідливим контентом, що веде до сприяння насильству чи самопошкодження.
Юристи позивачів вже заявили про намір подати ще десятки аналогічних позовів.
Аналітики відзначають, що ці справи можуть стати прецедентними: суди вперше мають визначити, де проходить межа відповідальності між технологічною платформою та діями її користувачів.
Розгляд справи перебуває на початковій стадії, і остаточні висновки суду можуть суттєво вплинути на правила роботи індустрії штучного інтелекту в майбутньому.
Якщо ви дочитали цей матеріал до кінця, ми сподіваємось, що це значить, що він був корисним для вас.
Ми працюємо над тим, аби наша журналістська та аналітична робота була якісною, і прагнемо виконувати її максимально компетентно. Це вимагає і фінансової незалежності.
Станьте підписником Mind всього за 196 грн на місяць та підтримайте розвиток незалежної ділової журналістики!
Ви можете скасувати підписку у будь-який момент у власному кабінеті LIQPAY, або написавши нам на адресу: [email protected].















