/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F434%2F6dd6887ad61119393491086e9be5a28c.jpg)
Вчені створили соцмережу, населену лише ШІ-ботами — ті почали просувати екстремістські ідеї
Дослідники штучного інтелекту та соціальних мереж провели експеримент, щоб перевірити, чи можливо запобігти формуванню інформаційних бульбашок у соцмережах. Для цього вони створили платформу, де всі користувачі були чат-ботами на основі GPT-4o від OpenAI. Результат виявився тривожним: боти почали активно обговорювати екстремістські погляди.
Про це повідомляє Futurism з посиланням на Ars Technica.
Експеримент організували вчені з Амстердамського університету. Вони перевірили шість стратегій втручання, які мали б зменшити поляризацію: хронологічну стрічку новин, підсилення різних поглядів, приховування статистики акаунтів і видалення біо. Жодна з цих методик не спрацювала належним чином. Деякі навіть погіршили ситуацію: наприклад, хронологічна стрічка висувала на перше місце екстремальний контент.
"Соцмережі, навіть із втручанням, приречені стати розсадником екстремістських поглядів і токсичних обговорень", — заявив Петтер Торнберг, дослідник ШІ та соцмереж. За його словами, токсичний контент формує мережеву структуру, яка підсилює нерівність уваги: мала кількість публікацій отримує максимальну видимість.
Торнберг додає, що у світі генеративного ШІ ситуація лише погіршиться: платформи монетизують увагу, а потужні моделі ШІ створюють контент, який максимально поляризує і вводить в оману користувачів. З такими тенденціями традиційні моделі соціальних мереж навряд чи виживуть.

