Епоха великих фейків: як ШІ випробовує на чесність і стійкість західні демократії
5 чинників, що зроблять виборців вразливими цьогоріч
Понад 50 виборів 2024 року має відбутися у країнах із сукупною кількістю населення 4,2 млрд. Світ, найімовірніше, не побачить такої кількості одночасних виборів до 2048 року. І, за законами ідеального шторму, цьогорічний електоральний бум збігся в часі із ще одним «вибухом» – стрімким розвитком моделей генеративного штучного інтелекту. Як розвиток ШІ може позначитися на результатах перегонів у багатьох країнах, розповіла Mind креативна директорка ГО «Інтерньюз-Україна» Діана Іщенко.
Читайте також: Рік політичних реваншів: 8 найважливіших виборів 2024 року
У 2023 році ця технологія стала значно доступнішою та простішою у використанні. Тепер створювати фейковий контент і прицільно поширювати його на потрібні аудиторії може буквально кожен користувач інтернету.
У MIT Technology Review визначили, що трьома найбільш вірусними зображеннями 2023 року стали згенеровані ШІ фото Папи Римського в пуховику від Balenciaga; Дональда Трампа, якого поліцейські повалили на землю, а також ілюстрація вибуху в Пентагоні. Усі фото – несправжні, але їх побачили та поширили в соцмережах мільйони людей.

Як уряди намагаються запобігти маніпуляціям і фейкам?
Як часто трапляється з новими технологіями, їхній стрімкий розвиток значно випереджає спроби урядів чи платформ унормувати їх застосування. У жовтні 2023 року президент США Джозеф Байден видав указ про розробку рекомендацій щодо безпеки ШІ. Ним, зокрема, передбачається, що американський уряд розробить інструкції для маркування контенту, створеного за допомогою штучного інтелекту.
Навіть якщо уявити, що маркувати згенерований ШІ контент стане обов'язково, на практиці це не дуже допоможе. По-перше, сервіси ШІ масово використовуються, наприклад, для редагування справжніх зображень чи накладення субтитрів на відео. Тобто маркувати доведеться майже увесь контент, а отже, сенсу в цьому не буде. По-друге, користувачі можуть просто не звертати увагу на таке маркування. Так само, як часто не розрізняють у стрічці соцмереж звичайний допис від того, який просувається платно (різні дослідження підтверджують, що підпис «Реклама» лишається поза увагою).
У грудні 2024 року країни ЄС погодили перший у світі комплексний закон щодо регулювання ШІ. Документ набуде чинності не раніше 2025 року. Але більш ніж для половини мешканців земної кулі вибори відбудуться ще у 2024-му, зокрема й до Європарламенту в червні цього року.
У свіжому звіті World Economic Forum дезінформація з використанням ШІ названа «найбільшою загрозою світовій економіці» у найближчі два роки. Автори наголосили на високому ризику втручання у вибори в США, ЄС, Великій Британії, Мексиці, Індії та інших країнах, на які сумарно припадає 60% світового ВВП.
Читайте також: Президентські вибори у Тайвані: чого від них чекають Китай і США та хто може справдити їхні сподівання
Що ж зробить виборців особливо вразливими до дезінформації цього року?
Ось 5 важливих факторів.
- Дослідження Stanford Internet Observatory у 2023 р. виявило, що мовні моделі можуть створювати більш переконливу пропаганду порівняно з тією, яку написала людина. І при цьому її значно складніше виявити, бо продукується вона швидко й одразу в масових масштабах.
Те ж стосується і фейкових акаунтів у соцмережах: з високою імовірністю їхня кількість може різко зрости. Генеративний ШІ дасть ботам письмові навички, які майже неможливо буде відрізнити від створеного людиною контенту.
- Ще один виклик – це так звані bespoke realities (індивідуальні реальності), у яких перебувають користувачі різних платформ. Зрозуміло, що єдиних стандартів використання ШІ неможливо буде домогтися для усіх соцмереж.
Алгоритми вже і так помістили користувачів у власні інформаційні бульбашки, але з можливостями ШІ розлами в суспільствах можуть стати ще глибшими. Особливо під час гарячого періоду виборчих кампаній.
- Третє занепокоєння – це мікротаргетинг, який із можливостями ШІ виведе на новий рівень стратегії, що використовувалися під час Брекзиту чи на виборах Президента США у 2016 році. Якщо тоді аналізувати дані користувачів та на основі цього генерувати для них персоналізовані повідомлення могли великі компанії, як-от Cambridge Analytica, то сьогодні це робити стало значно дешевше й легше.
-
Чи зможуть платформи соцмереж адекватно відповісти на ці загрози? Напередодні останніх виборів у Індії 2019-го тоді ще у твіттері почали поширюватись неправдиві повідомлення. У цій країні пальці виборців, які вже проголосували, позначають чорнилом, яке не змивається. Щоб відмовити мусульман іти на вибори, зловмисники запустили у твіттері фейкові повідомлення про те, що це чорнило нібито містить свинячу кров. Тоді платформа швидко відреагувала й видалила такі дописи.
Але чи здатна вона буде так само швидко за потреби втрутитися цього року – тут є великі сумніви. Ще з 2022 року компанії X (Twitter), Meta та YouTube значно скоротили свої команди модераторів контенту.
А зважаючи на кількість одночасних виборів завдання буде ще складнішим. Якщо більшість платформ сфокусуються на виборах у США (бо платформи переважно американські), то потенційні фейки щодо виборів у інших країнах можуть пройти непоміченими для модераторів соцмереж. - Якщо нічого не може бути правдою, то все може бути фейком. Розпізнати, що є справжнім в інтернеті, під час цьогорічних виборчих кампаній стане важче, ніж будь-коли. Викривальне відео про якогось кандидата може виявитися діпфейком. А може бути і правдивим – але як це довести?
Недовіра до ходу кампаній і потенційно до результатів виборів може мати відчутні наслідки для внутрішньої стабільності у країнах – партнерах України. Вибори для них стануть важливим тестом на демократію в умовах і без того напруженого та поляризованого політичного ландшафту.
А перед українцями стоїть вкрай складне завдання – утримувати фокус уваги наших партнерів на війні в Україні. Їхні внутрішні протиріччя можуть стати нашими серйозними конкурентами за цю увагу.
Автори матеріалів OpenMind, як правило, зовнішні експерти та дописувачі, що готують матеріал на замовлення редакції. Але їхня точка зору може не збігатися з точкою зору редакції Mind.
Водночас редакція несе відповідальність за достовірність та відповідність викладеної думки реальності, зокрема, здійснює факт-чекінг наведених тверджень та первинну перевірку автора.
Mind також ретельно вибирає теми та колонки, що можуть бути опубліковані в розділі OpenMind, та опрацьовує їх згідно зі стандартами редакції.