Очам не вірю: фейкові новини перейшли на новий рівень технологій
Вчені винайшли спосіб перетворення аудіозапису на реалістичне відео
Фахівці Вашингтонського університету нарешті зуміли вирішити одне з найскладніших завдань у галузі штучного інтелекту – перетворити аудіозапис на реалістичне відео, де рухи губ мовця синхронізовані з текстом запису промови. Дослідження фінансувалося компаніями Samsung, Google, Facebook, Intel і UW Animation Research Labs, повідомляє gazeta.ru.
Представлене вченими відео, щоправда, все ще неідеальне – під пильним поглядом стають помітними неприродні моменти, коли рухи губ, а, головне, зображувані емоції погано узгоджуються з промовою. Втім, поступове поліпшення експериментальної методики – справа наживна. Давно існує індустрія створення комп'ютерних персонажів для ігор і фільмів, але там реалістичність досягається мистецьким талантом досвідчених аніматорів і за допомогою прикріплених до «прототипу» датчиків. Обговорювана ж технологія не потребує жодної співпраці з головним героєм відео.
Якийсь час нейромережа вчиться правильній синхронізації рухів губ і мовного потоку на представлених зразках, потім перетворює звукові файли на реалістичні рухи куточків рота, які «домішуються» до зображення обличчя людини з іншого існуючого відео.
Метою розробки цієї технології називають застосування для заповнення відсутніх кадрів у відеоконференціях. Оскільки потокове аудіо через інтернет займає набагато менші смуги пропускання, ніж відео, нова система потенційно може знадобитися для «згладжування» відеочатів, що на слабких з'єднаннях дратують постійно випадаючими фрагментами.
Утім, є й інша, доволі очевидна область застосування: за допомогою нової технології стало можливим створювати підроблені відео з відомими персонажами. Наприклад, щоб обрушити ринок акцій несподіваними заявами – та й будь-що інше можна мати на меті. Зрозуміло, аналіз подібних фейкових відео можна здійснити за допомогою тих самих нейромереж, створених, щоб виявляти такі підробки. Та ж група розробників обіцяє розробити алгоритми, які могли б визначити, чи справжнє те чи інше відео.
Нагадаємо, з грудня 2016 року у соцмережі Facebook з’явилася нова функція: позначати матеріали як сумнівні, щоб адміністрація перевірила їх достовірність. Біля кожного підозрілого матеріалу ставиться позначка про його можливу фейковість.
Згодом і Google оголосила про запровадження функції фактчекінгу в стрічці новин Google News. Тепер новина, пройшовши перевірку на правдивість викладених фактів, матиме спеціальну позначку «правда», «неправда» чи «переважно правда».
Повертаючись до України, євроінтеграційні амбіції, що формуються і проявляються на тлі активного розвитку новітніх засобів комунікації, виводять на перший план питання іміджу нашої держави на світовій арені. Революція гідності, події на Донбасі та в Криму змусили заговорити про Україну ЗМІ більшості країн світу.
Водночас над погіршенням іміджу України невтомно та послідовно працює російська пропагандистська машина, використовуючи різноманітний арсенал: від відвертої брехні до перекручування фактів, напівправди, перебільшення та маніпуляцій із фактами. Шляхом пропаганди та дезінформації російська влада досягає двох цілей: таким чином вона забезпечує власну легітимність та популярність і водночас використовує цей інструмент як захист від цінностей західного світу.
Спеціалісти НУО Promote Ukraine (Брюссель) у матеріалі для Mind проаналізували, як зображають Україну в різних джерелах інформації та який вплив це має на формування іміджу країни у свідомості пересічного європейця.
Якщо ви дочитали цей матеріал до кінця, ми сподіваємось, що це значить, що він був корисним для вас.
Ми працюємо над тим, аби наша журналістська та аналітична робота була якісною, і прагнемо виконувати її максимально компетентно. Це вимагає і фінансової незалежності.
Станьте підписником Mind всього за 196 грн на місяць та підтримайте розвиток незалежної ділової журналістики!
Ви можете скасувати підписку у будь-який момент у власному кабінеті LIQPAY, або написавши нам на адресу: [email protected].