Війна в соцмережах та ефект ехо-камер: як боти з ШІ розпалюють конфлікти й до чого тут Росія
Війна в соцмережах та ефект ехо-камер: як боти з ШІ розпалюють конфлікти й до чого тут Росія

Війна в соцмережах та ефект ехо-камер: як боти з ШІ розпалюють конфлікти й до чого тут Росія

Соцмережі – місце, де стикаються думки, точки зору, світогляд, а віднедавна – люди та боти зі штучним інтелектом. Зазвичай ми звинувачуємо "прокрустове ложе" алгоритмів і рекомендацій у розпалюванні конфліктів. Проте нещодавнє дослідження показало, що навіть без алгоритмічного втручання віртуальні "люди" поводять себе ворожо.

Нідерландські науковці з Університету Амстердама створили просту соціальну платформу, де 500 чат-ботів (на базі GPT-4o mini) з різними політичними "персонажами" вільно листувалися одне з одним. У цій системі жодних таргетингових алгоритмів чи рекомендаційних стрічок – лише самі боти і їхні повідомлення.

Результати вражають. Навіть без невидимої руки алгоритму чат-боти самостійно організувалися у відокремлені політичні групи (ехо-камери). Боти найактивніше підписувалися й перепощували одне одного за схожі погляди. Найбільш різкі та радикальні дописи отримували найбільше фоловерів і репостів. Тобто контент сам відсортувався за рівнем яскравості – чим екстремальніший допис, тим більше уваги він отримував від інших ботів.

24 Канал розповідає детальніше про експеримент з чат-ботами та який стосунок це має до війни Росії проти України.

Ефект ехо-камер: що це означає

На перший погляд, амстердамський експеримент звучить доволі відірвано від реальності – боти з ШІ на основі ChatGPT, закрита "соцмережа". Проте це пряме віддзеркалення того, що відбувається на платформах на кшталт X, особливо в умовах війни Росії проти України.

Дослідники запустили ботів в "одну кімнату" та намагалися лікувати платформу простими рецептами – хронологічна стрічка замість персоналізованої, приховування лічильників фоловерів та репостів, приглушення вірального контенту, навіть посилення показу протилежних думок.

В жодному випадку зміни не були відчутними. Загальний результат – менше ніж 6% зниження "розколу", або поляризації. В одному з випробувань, де приховали біографії користувачів, розкол між полюсами навіть посилився, а найекстремальніші дописи навпаки набрали ще більше розголосу. Перехід на чисто хронологічну стрічку зменшив нерівномірність уваги ("баланс" між дописами), але й підняв крайню риторику на вершину стрічки.

Боти організовувалися відповідно до своїх налаштувань і самі себе сортували в "ехо-камери". В безалгоритмічному середовищі боти впевнено розділилися на політичні табори та мимоволі відтворили найгіршу людську поведінку онлайн.

Що таке ехо-камера


Ехо-камера – це явище в соціальних мережах та онлайн-середовищі, коли користувачі взаємодіють переважно з людьми чи джерелами, що підтверджують їхні власні переконання. У такому замкненому колі людина чує здебільшого відлуння власних думок, посилене однодумцями, а альтернативні погляди майже не проникають усередину.

Наслідки:
• посилення поляризації й радикалізації позицій;
• створення ілюзії більшості, навіть якщо думка є маргінальною;
• зниження критичного мислення, бо інформація сприймається некритично через її повторюваність.

У соцмережах такі "камери" формуються завдяки алгоритмам рекомендацій і взаємному відсіюванню контенту – ми бачимо передусім тих, хто схожий на нас.

Тобто проблема не лише в алгоритмах – радше в самих користувачах, в людській природі. Боти лише виконували закодовані в них моделі поведінки, скопійовані з людського контенту. За словами дослідників, вони виконували програми, граючи сценарії, які люди писали власними сердитими твітами й поляризованими обговореннями протягом останніх двох десятиліть. Навіть без втручання алгоритму боти успішно створювали окремі групи обговорень, посилювали розкол і звертали увагу на вкрай радикальні голоси, оскільки вони просто відтворюють тенденції, що закодовані в людських даних.

У результаті соціальна мережа без алгоритмів виявилась такою, яка лише посилює людські найгірші інстинкти. Такий собі цифровий бойовий ринг, що додає драми й галасу до й так токсичного політичного простору.

Боти та інформаційна війна

Отримані нідерландськими вченими результати показують серйозні наслідки ботів у реальному світі, особливо на тлі гібридної війни. В дискусіях навколо війни в Україні соцмережі давно перетворилися на поле битви з розумами. Мережею шириться безліч ворожих наративів, часто організованих саме через бот-акаунти. Емпіричне дослідження EPJ Data Science підтверджує, що боти відіграють помітну роль у соцмережій війні Росії проти України.

Аналіз більше 20 мільйонів твітів та 1 мільйона коментарів (теми Бучі, російська та українська точки зору) показав, що боти значно активніші у Twitter (X) – тоді як живі люди більше коментують у Reddit. При цьому взаємодія ботів і людей посилює токсичність англомовного сегмента. Фактично понад 20% "проросійських" користувачів на початку війни були ботами, які розповсюджували фейки та пропаганду. Соцмережі боти, як стверджують автори дослідження, відповідають за поширення дезінформації, фейкових новин, теорій змови та оманливих наративів під час війни.

На практиці це означає, що на цифровому фронті російська пропаганда використовує бот-мережі як зброю. Боти ретвітять і тиражують емоційно забарвлені меседжі, що лише підсилює розкол в суспільстві. При цьому вони розраховані на максимальне залучення – емоційні, абсурдні та страхітливі пости збирають більше уваги людей. А коли уявити десятки тисяч таких ботів – ефект лише зросте.

До того ж сучасні технології відкривають нові ризики. Різні LLM-чат-боти (як-от GPT чи аналоги) схильні до випадкових фабрикацій інформації. Аналіз HKS Misinformation Review показав, що при запитах про російські дезінформаційні наративи щодо війни LLM-чат-боти у 25–44% випадків генерували неправдиві твердження (понад чверть відповідей не відповідали критеріям істини). Більш того, ці боти часто непослідовні – відповідь на одне й те саме запитання може містити чітке спростування дезінформації, а може і ні.

Це означає, що генеративні боти можуть ненавмисно поширювати фейки. Автори роблять висновок, що варіативність у відповіді ШІ-асистентів може ввести користувачів в оману та посилити російські дезінформаційні кампанії. Інакше кажучи, інтеграція чат-ботів у сервіси пошуку й соцмережі створює додаткову точку уразливості – їхні власні алгоритми теж можуть ставати джерелом фейків та просто плутанини.

Експеримент Амстердамського університету дуже чітко показує, що токсичність і поляризація – це не лише наслідок алгоритмів соцмереж, а й природна властивість будь-якої мережевої динаміки, навіть серед штучних агентів. Тому інтеграція великих мовних моделей (LLM) у соціальні платформи дійсно може посилювати ці ризики. Віртуальні "інфлюенсери" з ШІ матимуть здатність не просто повторювати радикальні меседжі, а й персоналізувати їх під кожного користувача, що робить вплив ще більш небезпечним,
– коментує 24 Каналу Дмитро Софина, співзасновник AI R&D Center WINSTARS.AI, член Комітету з розвитку ШІ Мінцифри.

"У контексті війни проти України такі технології можуть бути використані як зброя інформаційних операцій (когнітивна війна) – для посилення внутрішніх конфліктів, недовіри й втоми суспільства. Тому захист від бот-мереж має передбачати не лише технічні засоби (виявлення ШІ-генерованого контенту, аудит моделей), а й розвиток критичного мислення у користувачів та прозорі стандарти для компаній, що запускають такі рішення", – додає експерт.

В часи війни вірити коментарям в соцмережах особливо небезпечно. Хоч соцмережі зазвичай вважають каталізаторами фейків через свої алгоритми, власне ШІ здатен самостійно генерувати масиви повідомлень, що вводять в оману. Фактично комп’ютер може ставати автором пропагандистського контенту. Небезпека подвійна: по-перше, боти вже зараз транслюють наявні наративи війни. По-друге, генеративні моделі можуть створювати нові варіанти вигадок майже без обмежень. За таких умов традиційні "латки" на алгоритми (фактчекерські позначки) можуть не витримати нового рівня навантаження.

Як реагувати: уроки для України

Наведені дослідження підкреслюють фундаментальну проблему – сама форма соціальних платформ заохочує конфлікт, а не полеміку. І нехай поки рішення у симуляції давали ледь помітний ефект, можна зробити важливі висновки.

  • По-перше, сам факт появи ехо-камер в експерименті натякає, що боротьба із поляризацією вимагає радикальніших перетворень, ніж просто нова стрічка чи анонімні лайки.
  • По-друге, в українському контексті варто мобілізувати більше ресурсів на протидію ботам. Наприклад, вчені радять платформам бути готовими до бот-атак і відкривати доступ для дослідників і журналістів, аби ті могли швидше виявляти та маркувати маніпулятивні мережі.

Україна стикається з інформаційною агресією щодня. Платформи та їхні регулятори повинні усвідомити, що навіть без алгоритмів соцмережі – це "дзеркало", що збільшує й без того наявні конфлікти. Покладаючися лише на самоконтроль користувачів чи корекцію стрічки, ми, як показують моделювання, не позбавимося ворожої пропаганди.

Чи можна створити "менш токсичну" соціальну мережу? Це можливо, але лише якщо дизайн системи з самого початку орієнтований не на максимізацію залученості, а на здорові комунікації. Це означає впровадження етичних принципів у тренування моделей, незалежний моніторинг їх поведінки та відповідальність платформ за суспільні наслідки,
– каже Дмитро Софина.

За його словами, ШІ – інструмент, і саме від того, як ми його використаємо залежить, чи стане він каталізатором співпраці або конфлікту. "Тобто з точки зору комерційності це ймовірно не буде цікаво засновниками, оскільки негатив і токсичність породжує більше активностей в мережі. А от чисто технологічно це звісно можливо, в т.ч. впровадивши принцип децентралізації та навчаного ШІ-гуру (який, як вище писав, теж може помилятись)", – додає фахівець.

Врешті-решт результати цих експериментів – це попередження про катастрофу онлайн. Щоб стримати хаос у цифрових баталіях, необхідний новий підхід. Соцмережі повинні перестати бути безвідмовною зброєю для маніпуляторів. Як відзначають дослідники, може бути потрібно переструктурувати самі механізми взаємодії в мережах – інакше навіть найліберальніші налаштування просто відновлять статус-кво поляризації у суспільстві. А допоки повномасштабної "революції алгоритму" не станеться, нам слід бути особливо пильними: вплив бот-мереж (особливо з підтримкою ШІ) лише посилює вплив ворога.

Теги за темою
Соцмережі
Джерело матеріала
loader
loader