Штучний інтелект та інформаційна війна майбутнього
Штучний інтелект та інформаційна війна майбутнього

Штучний інтелект та інформаційна війна майбутнього

Ми щодня працюємо з АІ, використовуємо самі і бачимо, які тактики застосовує ворог. Але дивитися на питання точно потрібно ширше, ніж наша війна з Росією.

У Китаї уряд зобов’язав усі AI-компанії вбудовувати механізми "ідеологічного захисту". В результаті моделі, як ERNIE від Baidu, цензурують згадки про Тяньаньмень або Тайвань ще на рівні запиту.

Росія тестує нейромережі, здатні в реальному часі генерувати фейкові новини, імітувати голоси українських військових і створювати deepfake-відео "свідчень" для вкидів через соцмережі.

Це вже не теорія, а практика, яку ми бачимо щодня.

У США інвестують мільйони доларів у проєкти типу OpenAI, Anthropic та DARPA's AI Next.

Мета: створити системи, які ідентифікують інформаційні атаки до того, як вони почнуть ширитися.

Є багато публічних розробок, але ще більше – закритих для пабліку, які використовуються у військових цілях.

Ось вам сценарій найближчих років.

Уявімо 2027 рік. Під час гібридної ескалації РФ запускає тисячі AI-ботів, які імітують українських волонтерів, лікарів, ветеранів. Вони поширюють "відчай", "зраду", "корупцію", усе з гіперреалістичними фото й відео, створеними генеративними моделями, а також тексти, цілі проекти в соцмережах, включно з підлітковим та дитячим контентом, де РФ зараз теж активно працює.

Китай паралельно працює в Африці та Південній Азії, просуваючи антизахідні наративи через локалізовані AI-моделі, які говорять місцевими мовами й адаптовані до культури.

Щоб адаптувати модель до конкретної культури достатньо не так багато зусиль – парсинг інформації з соцмереж, постів ЛОМів, коментарів, контенту – всі ці масиви завантажуються і перетворюють модель на клон громадянина конкретної держави в інформаційному просторі, вчать мислити, вчать ментальності.

У відповідь Захід створює "цифрові лінії фронту" – ШІ-системи, які 24/7 моніторять інфопростір, виявляють бот-мережі, перекручування фактів, діпфейки. Але проблема: навіть правду вже складно відрізнити, бо і її стилізують під фейк.

Ми йдемо до світу, де не буде "однієї правди", а будуть мільйони фрагментованих реальностей. І той, хто контролює алгоритм – контролює свідомість.

BigTech компанії, що розробляють АІ, матимуть дуже велику владу. Але не тільки вони.

В Україні це питання виживання. Бо наш фронт – не лише географічний, а й інформаційний.

І, звісно ж, у використанні ШІ технологій ми маємо і будемо одними з лідерів, як технологій протидії, так і технологій, які дозволяють захищати інтереси держави в інформаційних зонах, де вони присутні.

Оригінал

Хочете стати колумністом LIGA.net – пишіть нам на пошту. Але спершу, будь ласка, ознайомтесь із нашими вимогами до колонок.

Статті, що публікуються в розділі "Думки", відображають точку зору автора і можуть не збігатися з позицією редакції LIGA.net
Джерело матеріала
loader
loader