Очам не вірю: фейкові новини перейшли на новий рівень технологій

Очам не вірю: фейкові новини перейшли на новий рівень технологій

Вчені винайшли спосіб перетворення аудіозапису на реалістичне відео

Этот текст также доступен на русском

Фахівці Вашингтонського університету нарешті зуміли вирішити одне з найскладніших завдань у галузі штучного інтелекту – перетворити аудіозапис на реалістичне відео, де рухи губ мовця синхронізовані з текстом запису промови. Дослідження фінансувалося компаніями Samsung, Google, Facebook, Intel і UW Animation Research Labs, повідомляє gazeta.ru

Представлене вченими відео, щоправда, все ще неідеальне – під пильним поглядом стають помітними неприродні моменти, коли рухи губ, а, головне, зображувані емоції погано узгоджуються з промовою. Втім, поступове поліпшення експериментальної методики – справа наживна. Давно існує індустрія створення комп'ютерних персонажів для ігор і фільмів, але там реалістичність досягається мистецьким талантом досвідчених аніматорів і за допомогою прикріплених до «прототипу» датчиків. Обговорювана ж технологія не потребує жодної співпраці з головним героєм відео.

Якийсь час нейромережа вчиться правильній синхронізації рухів губ і мовного потоку на представлених зразках, потім перетворює звукові файли на реалістичні рухи куточків рота, які «домішуються» до зображення обличчя людини з іншого існуючого відео.

Метою розробки цієї технології називають застосування для заповнення відсутніх кадрів у відеоконференціях. Оскільки потокове аудіо через інтернет займає набагато менші смуги пропускання, ніж відео, нова система потенційно може знадобитися для «згладжування» відеочатів, що на слабких з'єднаннях дратують постійно випадаючими фрагментами.

Утім, є й інша, доволі очевидна область застосування: за допомогою нової технології стало можливим створювати підроблені відео з відомими персонажами. Наприклад, щоб обрушити ринок акцій несподіваними заявами – та й будь-що інше можна мати на меті. Зрозуміло, аналіз подібних фейкових відео можна здійснити за допомогою тих самих нейромереж, створених, щоб виявляти такі підробки. Та ж група розробників обіцяє розробити алгоритми, які могли б визначити, чи справжнє те чи інше відео.

Нагадаємо, з грудня 2016 року у соцмережі Facebook з’явилася нова функція: позначати матеріали як сумнівні, щоб адміністрація перевірила їх достовірність. Біля кожного підозрілого матеріалу ставиться позначка про його можливу фейковість. 

Згодом і Google оголосила про запровадження функції фактчекінгу в стрічці новин Google News. Тепер новина, пройшовши перевірку на правдивість викладених фактів, матиме спеціальну позначку «правда», «неправда» чи «переважно правда». 

Повертаючись до України, євроінтеграційні амбіції, що формуються і проявляються на тлі активного розвитку новітніх засобів комунікації, виводять на перший план питання іміджу нашої держави на світовій арені. Революція гідності, події на Донбасі та в Криму змусили заговорити про Україну ЗМІ більшості країн світу.

Водночас над погіршенням іміджу України невтомно та послідовно працює російська пропагандистська машина, використовуючи різноманітний арсенал: від відвертої брехні до перекручування фактів, напівправди, перебільшення та маніпуляцій із фактами. Шляхом пропаганди та дезінформації російська влада досягає двох цілей: таким чином вона забезпечує власну легітимність та популярність і водночас використовує цей інструмент як захист від цінностей західного світу.

Спеціалісти НУО Promote Ukraine (Брюссель) у матеріалі для Mind проаналізували, як зображають Україну в різних джерелах інформації та який вплив це має на формування іміджу країни у свідомості пересічного європейця.

У випадку, якщо ви знайшли помилку, виділіть її мишкою і натисніть Ctrl + Enter, щоб повідомити про це редакцію. Або надішліть, будь-ласка, на пошту [email protected]
Проєкт використовує файли cookie сервісів Mind. Це необхідно для його нормальної роботи та аналізу трафіку.ДетальнішеДобре, зрозуміло