Онлайн потопає у «ШІ-помиях»: як головний тренд «зомбі-інтернету» у 2025 році шкодить суспільству
Штучний інтелект створив цунамі дезінформації, дипфейків і хибних порад. Експерти назвали два шляхи рятування
Австралійський словник Macquarie оголосив «ШІ-помиї» (AI Slop) головним словом 2025 року й об’явив про настання нової епохи інтернет-спаму. Це актуалізувало проблему дедалі більшого роздратування людей через забруднення онлайн-простору.
Інтернет буквально заполонили фейкові фото інвалідів, яких «ніхто не привітав», коти, що танцюють та ридають, криві перекази книжок неживим голосом. І це лише верхівка айсберга низькоякісного ШІ-контенту.
Дослідницька фірма Graphite стверджує, що у травні 2025 року 52% нових текстів в інтернеті були згенеровані штучним інтелектом. Аналітики констатували вибухове зростання проти 2020 року, коли доля ШІ-статей становила лише 5%.
Mind про негативну сторону ШІ у віртуальній реальності та про те, чому це руйнує повсякденну реальність.
Чому «помиїв» так багато?
Причина проста: цей контент теж монетизується, а створюється дуже легко та швидко. Бум виробництва «сміттєвого» контенту почався у 2022 році після того, як платформи ChatGPT, Sora та Midjourney стали доступними для найбідніших користувачів інтернету.
«Більшість ШІ-помиїв генерують люди, які прагнуть заробити кілька доларів. Вони публікують по сто відео, одне або два з яких отримують деяку популярність. Їхній контент призначений лише для того, щоб ненадовго обманути вас і захопити шматочок вашої уваги. Це товар, а не творчість. І принципово, що слово «помиї» у назві цього контенту – це те, як відчуває себе споживач, а не якийсь об'єктивний недолік. Ніхто насправді не є фанатом цих ШІ-помийних акаунтів», – цитує Mashable Ейдана Волкера, дослідника інтернет-культури.
Розливу ШІ-помиїв сприяють деякі структурні фактори. Алгоритми Facebook, TikTok, Telegram та інших популярних соцмереж винагороджують грошима зацікавленість, а не якість, надаючи пріоритет контенту, який провокує емоційні реакції. Через відсутність відстеження походження та неадекватну модерацію ШІ-контент зараз циркулює неконтрольовано, розмиваючи межі між верифікованою та сфабрикованою інформацією.
У 2025 році ШІ генерує більше текстів, ніж люди

Як ШІ-помиї шкодять користувачам?
Штучний інтелект, як пише Gizmodo, згенерував цілу мінііндустрію кулінарних порад і створив у реальному світі відразу дві проблеми.
По-перше, він відібрав заробіток у реальних авторів рецептів – їхні сайти втратили від 40% до 80% трафіку. По-друге, безліч згорілих індичок та інших зіпсованих страв розчарували тих користувачів, які в пошуках інструкцій для приготування їжі зайшли на ШІ-сторінки.

Вебсторінки справжнього кулінара Ліндсі Остром і фейкового на ім’я «Нора». Фото: Bloomberg
У подібні пастки 2025 року потрапляли садівники, які труїли свої рослини; геймери, що купували ШІ-підробки популярних відеоігор; меломани, які слухали погану музику. Особливо небезпечний недостовірний ШІ-контент американці отримували по результатам пошуку «Притулки від урагану в Маямі тоді, коли їм були критично потрібні точні вказівки.
В опублікованому у жовтні науковому досліджені Честерського університету зроблено висновок, що ШІ-помиї свідчать про перехід до «зомбі-інтернету» – цифрової екосистеми, переповненої штучними репліками, які імітують людську присутність. Цей тренд зменшує довіру людей до інформації, і змушує великі корпорації витрачати щороку мільйони доларів на верифікацію даних, їхню переробку та етичний контроль.
Активними генераторами ШІ-помиїв також виступають шахраї та пропагандисти. Агентство Winsome Marketing повідомляє про появу у 2025 році 8 млн дипфейків, що у 16 разів більше проти 2023 року. Суттєва частина цих вкидів (з солдатами, що плачуть, або розгоном зради) спрямована на деморалізацію армії та суспільства в Україні.
Експертів турбує те, що переважна більшість користувачів не вміють відрізняти справжні відео від сфабрикованих. Опитування iProov показало, що 30% людей у віці 55+ досі ще навіть не знають про існування дипфейків.
Що прогнозують фахівці
Нещодавнє дослідження агентства Billion Dollar Boy виявило «втому» людей від ШІ-помиїв. У 2023 році близько 60% опитаних користувачів сприймали згенеровану штучним інтелектом інформацію позитивно. Але зараз таких залишилося 26%, а інші називають ШІ-контент неякісним, нецікавим і повторюваним.
Із середини 2025 року головні інтернет-платформи почали визнавати ШІ-помиї злом та оголошувати боротьбу із цим феноменом. Так, у квітні видавничий майданчик Medium заборонив авторам заробляти на ШІ-текстах, оскільки «наші читачі постійно говорять нам, що хочуть історій, написаних людьми про свій досвід та думки».
У липні аналогічне оголошення зробив YouTube, обмеживши відеоблогерам можливість монетизування масового й неоригінального ШІ-контенту.
Ден Брахмі, засновник і голова ізраїльського «пошукача дезінформації» Cyabra, прогнозує, що далі доля фейкового контенту зменшуватиметься. Причому саме ШІ допоможе знищити проблему помиїв, яку він сам і породив.
«Ми мусимо боротися проти шкідливого ШІ, використовуючи хороший ШІ, – цитує Дена Брахмі Jerusalem Post. – Та сама технологія, яка генерує дезінформацію, може бути використана для її знаходження та ліквідації. Cyabra розробила інструмент, що як цифрова лупа виявляє невидимі сліди ШІ навіть на найпереконливіших дипфейках».
Проте Ендрю Бад, засновник і керівник сервісу верифікації облич iProov, стверджує, що у створенні розшуковиків ШІ-зображень мало користі – вони застарівають майже відразу після того, як навчаться знаходити фейки. Суспільству, за його прогнозом, доведеться змиритися з новою нормальністю.
«Рік чи два тому ще було можливо виявляти ШІ-зображення, бо вони мали візуальні неточності – шість пальців, відсутність вух, очі не на своєму місці. Але цих слідів уже немає… Вартість генерації штучних зображень впаде практично до нуля, і 90% контенту стане підробленим. Це буде як з тими годинниками Rolex, що ми бачимо на пляжах, – 90% із них фальшиві», – прогнозує Ендрю Бад.
Люди, за його словами, скоро усвідомлять, що більше не можуть довіряти фотофактам, які бачать на власні очі.
А онлайн-контент у найближчому майбутньому розділиться на дві частини: розважальний, який може бути фейковим, і достовірний, який неможливо буде підробити. Він надходитиме з цифровими підписами авторів, по яких можна буде виявляти ланцюги постачань будь-якого шматочка контенту. Цих підписів, за словами Ендрю Бада, ще не існує, і їх потрібно розробити.
Якщо ви дочитали цей матеріал до кінця, ми сподіваємось, що це значить, що він був корисним для вас.
Ми працюємо над тим, аби наша журналістська та аналітична робота була якісною, і прагнемо виконувати її максимально компетентно. Це вимагає і фінансової незалежності.
Станьте підписником Mind всього за 196 грн на місяць та підтримайте розвиток незалежної ділової журналістики!
Ви можете скасувати підписку у будь-який момент у власному кабінеті LIQPAY, або написавши нам на адресу: [email protected].
















