OpenAI обмежує створення дипфейків у Sora — образи знаменитостей тепер під захистом

Після скарг акторів і родин відомих митців компанія запровадила нові правила, що забороняють використання голосу чи облич без офіційного дозволу

Фото: Gettyimages

Компанія OpenAI посилила заходи безпеки у своєму відеогенераторі Sora, заборонивши користувачам створювати відео з голосом чи образом знаменитостей без їхньої згоди.

Про це повідомляє «Межа».

Це рішення ухвалене після низки публічних звернень акторів і родичів відомих діячів, які скаржилися на зловживання технологіями штучного інтелекту. Зокрема, актор Браян Кренстон висловлював занепокоєння через те, що його образ неодноразово використовували у дипфейках без його згоди чи будь-якої компенсації. Подібні випадки торкнулися і родин Робіна Вільямса, Джорджа Карліна та інших відомих артистів.

У відповідь OpenAI оновила політику використання Sora, запровадивши обов’язкову вимогу наявності явного дозволу на використання голосу чи зовнішності. Тепер митці, актори та публічні особи отримають право повного контролю над цифровим використанням свого образу, а компанія пообіцяла швидко реагувати на скарги щодо порушень. У заяві OpenAI наголошується, що кожен виконавець або публічна особа має самостійно вирішувати, чи дозволяти створення свого цифрового аналога. Ці зміни покликані зробити використання штучного інтелекту безпечнішим і більш етичним.

Бекграунд. Раніше Mind повідомляв, що OpenAI призупинила створення відео з образом Мартіна Лютера Кінга в Sora після звернення його родини. Компанія погодилася з вимогою спадкоємців лідера руху за громадянські права, щоб захистити історичних постатей від неповажного використання в AI-контент

Стежте за актуальними новинами бізнесу та економіки у нашому Telegram-каналі Mind.ua та стрічці Google NEWS