Хаос і довіра: як штучний інтелект впливає на свободу преси та розслідувальну журналістику
Хаос і довіра: як штучний інтелект впливає на свободу преси та розслідувальну журналістику

Хаос і довіра: як штучний інтелект впливає на свободу преси та розслідувальну журналістику

Штучний інтелект уже змінив журналістику. Тепер треба оцінити можливі наслідки, користь і небезпеку від використання ШІ різними редакціями.

Ця стаття була опублікована Глобальною мережею журналістів-розслідувачів (GIJN). «Детектор медіа» пропонує переклад матеріалу Ріда Річардсона й Андреа Арзаби.

Відтоді як Генеральна асамблея ООН уперше проголосила Всесвітній день свободи преси 32 роки тому, свобода журналістики зазнала серії глибоких змін — від умовного розквіту тисяч медіа після закінчення Холодної війни й Арабської весни до поступового згортання свободи та незалежності через нову хвилю війн і авторитарних репресій.

Тривожно, що за інформацією нещодавно опублікованого Індексу свободи преси від «Репортерів без кордонів», світовий стан свободи преси досяг безпрецедентного мінімуму. В середньому RSF оцінює ситуацію зі свободою преси у світі як «складну», а умови для журналістики — як «погані» у половині країн світу.

На тлі цих потрясінь у медіасфері відбувається ще один технологічний зсув парадигми — поява штучного інтелекту, великих мовних моделей і прогностичних алгоритмів у всіх сферах медіа. Ця потенційно проривна технологія водночас несе як багатонадійні перспективи, так і небезпеку. Навіть найменші редакції тепер можуть використовувати інструменти ШІ для створення потужних новинних матеріалів, однак ця ж технологія загрожує традиційній моделі медіабізнесу, водночас надаючи недобросовісним гравцям і політичним екстремістам небезпечний інструмент для поширення дезінформації та підриву довіри до преси.

«ШІ змінює фундаментальне право шукати, передавати й отримувати інформацію, а також саму журналістську професію… Але це також містить ризики», — йдеться у звіті ООН «Журналістика у новому сміливому світі».

Розуміння того, як найкраще використовувати штучний інтелект й інтегрувати його в практики журналістики та редагування, стало рушійною силою Паризької хартії з питань ШІ та журналістики, співзасновником якої два роки тому стала GIJN. Комісія хартії, до якої увійшли 32 видатні особистості з 20 країн світу, сформулювала 10 ключових принципів для захисту достовірності інформації та збереження соціальної ролі журналістики.

«Попри те, що ШІ відкриває захопливі можливості для журналістських розслідувань, він також створює низку викликів, — пояснила виконавча директорка GIJN Емілія Діас-Страк під час презентації Хартії. — Для нас честь долучитися до обговорень про те, як ШІ може підтримати розслідувальну журналістику, і як наша спільнота може долати виклики, які містить ШІ, висвітлюючи історії, що досліджують зламані системи та притягують можновладців до відповідальності».

Два роки потому, у цьогорічний Всесвітній день свободи преси, Організація Об’єднаних Націй також приділила особливу увагу впливу ШІ у своєму звіті «Журналістика в новому сміливому світі: вплив штучного інтелекту на свободу преси та медіа».

«ШІ змінює фундаментальне право шукати, передавати й отримувати інформацію, а також журналістську професію, — йдеться у резюме звіту.  — Він розширює доступ до інформації та можливості її обробки, дозволяючи журналістам ефективно працювати з великими обсягами даних і створювати контент з більшою продуктивністю.

Це також містить ризики. ШІ може бути використаний для відтворення дезінформації, поширення фейкових новин, посилення мови ворожнечі в інтернеті та запровадження нових форм цензури, — застерігають у звіті. — Деякі суб’єкти використовують ШІ для масового стеження за журналістами й громадянами, що стримує свободу вираження. Приватні платформи дедалі частіше застосовують ШІ для фільтрації, модерації та добору контенту, стаючи своєрідними “вартовими” інформації».

Ще одне, більш безпосереднє занепокоєння щодо впливу ШІ на свободу преси та журналістику стосується того, що цю технологію рекламують як спосіб підвищення продуктивності шляхом зменшення кількості редакційного персоналу. На тлі фінансових труднощів у галузі та масових скорочень, заміна журналістів і редакторів штучним інтелектом може ще більше прискорити втрату робочих місць у медіа. У нещодавньому кричущому прикладі новинний сайт Quartz звільнив майже весь редакційний колектив після придбання новим власником — цей крок розцінили як повну орієнтацію на контент, згенерований ШІ. А лише минулого місяця італійське видання Il Foglio повідомило, що як експеримент випустило першу повністю згенеровану штучним інтелектом газету — з історіями, заголовками й навіть цитатами (від людей, яких не існує).

Однак розслідувальна журналістика залишається протиотрутою від маніпуляцій і дезінформації, які містить ШІ. Журналістика, що ґрунтується на системному підході, — з численними джерелами, аналізом даних, перевіркою фактів — не може бути відтворена машинним навчанням чи суперкомп’ютером. Журналістські розслідування пропонують читачам життєво важливу послугу, яку вони не можуть отримати в іншому місці. Саме тому захист незалежності журналістів, які викривають зловживання і притягують до відповідальності тих, хто має владу, є надзвичайно важливим.

«Членам нашої спільноти вдалося розкрити історії про дезінформацію, шахрайські схеми та порушення прав людини, в яких використовувався ШІ, — сказала Діас-Страк із GIJN у Всесвітній день свободи преси. — Водночас як інструмент ШІ відкрив нові можливості для журналістів-розслідувачів — аналізувати мільйони записів і виявляти ключові зачіпки, які були важливими для журналістської роботи. Штучний інтелект продовжує розвиватися, і ми повинні вимагати від нього відповідальності, розуміючи його можливості й обмеження».

Викриття загроз ШІ для демократії

Хоча ШІ все ще має труднощі з імітацією навіть базових елементів написання новинних матеріалів, зростання обсягів контенту, створеного алгоритмами, може мати підступний вплив як на журналістику, так і на громадянське суспільство. Це призводить до того, що люди не знають, на які джерела вони можуть покладатися, що зрештою знижує загальний рівень довіри до медіа. Як повідомив Інститут Ройтерз у листопаді минулого року, матеріали професійних журналістів можуть губитися серед потоку SEO-оптимізованого, низькоякісного «ШІ-сміття». У зв’язку з виборами в США 2024 року NewsGuard виявив майже 1 200 так званих сайтів «рожевого слизу» — вони використовують згенеровані ШІ матеріали, щоб імітувати місцеві газети чи телестанції, просуваючи партійні наративи та підриваючи легітимну журналістику.

«ШІ, безумовно, змінює екосистему, в якій ми працюємо... Тривожним є те, що він передає значну владу в руки великих технологічних платформ та урядів, багато з яких не є захисниками свободи преси», — каже журналістка Decode (Індія) Хера Різван.

У звіті ООН також ідеться: «Генеративний ШІ дозволяє створювати оманливий контент, такий як дипфейки, підриваючи довіру до демократичних інституцій».

GIJN розслідував цю загрозу торік у межах свого проєкту «Вибори 2024». Ключова стаття цієї серії мала на меті навчити журналістів у всьому світі виявляти та розслідувати аудіопідробки, створені штучним інтелектом, після того, як вони були використані для введення в оману та впливу на виборців у таких країнах як Пакистан і Бангладеш, і, можливо, вплинули на результати виборів на користь проросійської партії в Словаччині. Інші медіа також моніторили ШІ-втручання у вибори по всьому світу у 2024 році — серед виявлених країн були Мексика, Індонезія та інші країни Азії.

Розслідування Financial Times торік також показало, що інструменти клонування голосу за допомогою ШІ були використані під час праймериз Демократичної партії США 2024 року (щоб неправдиво зімітувати, нібито президент Джо Байден закликає не голосувати), а також під час виборів 2023 року в Судані, Ефіопії, Нігерії та Індії.

Журналістка Decode Хера Різван опублікувала кілька матеріалів, які викривають, як ШІ може використовуватися для маніпулювання електоратом. Це відбувається на тлі ситуації, яку організація «Репортери без кордонів» схарактеризувала як «неофіційний стан надзвичайної ситуації» для преси в Індії.

«ШІ, безумовно, змінює екосистему, в якій ми працюємо, — сказала Різван. — Тривожним є те, що він передає значну владу в руки великих технологічних платформ та урядів, багато з яких не є захисниками свободи преси. Ми вже бачимо використання ШІ в інструментах спостереження — таких як розпізнавання облич чи предиктивна поліція. У країнах, де законодавство не надто захищає журналістів і громадян, подібні технології можуть викликати глибоке занепокоєння. Люди бояться висловлюватися чи брати участь у протестах — і цей страх передається також і пресі».

Поза виборами ШІ також використовується як зброя для формування суспільної думки щодо війни в Україні. У матеріалі The Insider журналістка Дада Лінделл розслідувала так звану дезінформаційну кампанію «Матрьошка», в межах якої виготовляли фейкові зображення за допомогою ШІ, щоб показати українське керівництво слабким і жорстоким, водночас закликаючи українців до капітуляції перед Росією.

Занурення в алгоритми та їхні наслідки

Розуміння глибшого, системного впровадження ШІ — і притягнення до відповідальності тих, хто його використовує, за його вплив — також стало ключовим напрямом журналістських розслідувань.

Такі ініціативи, як Мережа відповідальності за ШІ Пулітцерівського центру, прагнуть «усунути дисбаланс щодо штучного інтелекту, який існує в журналістській індустрії, і створити міждисциплінарну екосистему, яка дозволить журналістам висвітлювати цю тему, що швидко розвивається, з майстерністю, нюансами та впливом».

Одним із нещодавніх прикладів її роботи стало спільне розслідування Núcleo з США та Бразилії, яке виявило низку профілів користувачів інстаграму, що поширювали контент, згенерований ШІ, пов’язаний із жорстоким поводженням із дітьми, який системи безпеки компанії Meta не змогли ефективно зупинити. Однак протягом кількох днів після публікації звіту Meta видалила всі 14 профілів.

Al Jazeera, в межах тієї ж ініціативи Пулітцерівського центру, виявила, що тисячі бідних людей в Індії були позбавлені їжі, а ще тисячі були помилково оголошені мертвими через помилки, допущені алгоритмом ШІ, який використовувався в системі соціального забезпечення країни.

Ці викриття стали продовженням подібного розслідування, проведеного нідерландським Lighthouse Reports роком раніше. У рамках чотирисерійного циклу, створеного у співпраці з Пулітцерівським центром, Wired і кількома іншими медіа, Lighthouse Reports досліджували алгоритмічну упередженість, вбудовану в програмне забезпечення, для виявлення шахрайства в системі соціального забезпечення країни. Автори розслідування під назвою «Машини підозри» проаналізували вхідні дані та вибір дизайну системи оцінки ризиків і виявили, що моделі машинного навчання регулярно дискримінували отримувачів соціальної допомоги на основі етнічної приналежності, віку, статі та батьківського статусу.

Під час отримання першої премії за вплив на доступ до інформації (Access to Info Impact Award) торік журналіст Lighthouse Reports Габріель Гейгер пояснив, що свобода преси та прозорість були ключовими для успіху розслідування алгоритму зсередини. «Це означало розробку та впровадження масштабної кампанії за свободу інформації в європейських країнах із дуже різними режимами доступу до інформації, — сказав він. — Державні агентства чинили опір нам на кожному кроці. Співпрацюючи з місцевими журналістами в кожній країні, ми зверталися до суду, подавали скарги до офісів омбудсменів і чекали понад рік, щоб отримати доступ».

Разючим прикладом розслідування алгоритмів ШІ була публікація рік тому в рамках співпраці незалежних ізраїльських видань +972 та Local Call. Разом вони виявили, як ізраїльські сили оборони (ЦАХАЛ) використовували програму ШІ під назвою «Lavender» для керування бомбардуваннями в Газі з мінімальним наглядом і високим порогом для жертв серед цивільного населення через перевагу цілей, що перебувають у приватних будинках у нічний час.

У методологічній статті, яку написали після першого викриття, репортер +972 Юваль Абрахам пояснив, як його команда опитала шістьох інформаторів у рамках підготовки репортажу, нагадавши, що ключовим елементом впровадження ШІ є розуміння людей, які наділяють технологію повноваженнями. Абрахам виявив, що з перших днів війни після терористичної атаки ХАМАСу 7 жовтня ЦАХАЛ почав делегувати виклики, що стосувалися життя або смерті, моделі наведення ШІ.

«За словами джерел, армія надала солдатам широке схвалення використовувати списки цілей Lavender із мінімальним наглядом і розглядати результати роботи ШІ “як людське рішення”, — сказав Абрахам. — Хоча машина була розроблена для позначення “низькорівневих” військових оперативників, було відомо, що вона припускалася так званих “помилок” ідентифікації приблизно в 10% випадків».

Використання ШІ як інструменту новинної редакції

Попри всі занепокоєння щодо ролі штучного інтелекту в медіаекосистемі та громадянському суспільстві, він усе ще може відігравати позитивну роль у сучасній журналістиці. Багато журналістів-розслідувачів уже використовують ШІ та великі мовні моделі (LLM) як інструменти для підвищення ефективності у своїх редакціях. При розумному впровадженні з належним редакційним контролем інструменти ШІ можуть бути особливо корисними для малих незалежних і неприбуткових медіа, які не мають фінансових ресурсів і персоналу великих новинних агентств.

«Я використовував моделі ШІ для аналізу тисяч дописів у X (раніше Twitter). Ці інструменти допомогли мені виявити поведінку ботів, ідентифікуючи шаблони в часі, повторюваності та мережевій активності», каже Ібрагім Хелал, Arabi Facts Hub.

Мінімум, що можуть зробити журналісти, — це використовувати великі мовні моделі, такі як ChatGPT, для оптимізації початкового процесу підготовки матеріалів та пошуку потенційних сюжетів. «ChatGPT надає список експертів і їхні контакти за п’ять секунд, замість того, щоб витрачати 40 хвилин на пошук у Google», — пояснив журналіст-розслідувач KUSA-TV Джеремі Джоджола.

Журналісти з технічними навичками можуть розширити застосування ШІ, що дозволяє їм зосередитися на більш складних аспектах журналістики. GIJN поспілкувався з кількома випускниками навчального курсу «Цифрові загрози», щоб дізнатися, як вони застосовують ШІ у своїх редакціях.

Рейнальдо Чавес з Abraji розповів: «Я розробляю проєкти з відкритим кодом, які застосовують ШІ для підтримки розслідувальної журналістики. Ці інструменти призначені як для оптимізації щоденного робочого процесу моєї команди — наприклад, розслідування дезінформації, аналізу документів і перегляду юридичних справ за допомогою спеціальних чат-ботів — так і для обслуговування ширшої спільноти журналістів через публічні додатки та репозиторії».

У нещодавньому розслідуванні Arabi Facts Hub щодо фейкових акаунтів, які брали участь у кампанії в соціальних мережах після смерті лідера «Хезболли» Хассана Насралли, Ібрагім Хелал використав ШІ для аналізу великої кількості онлайн-дописів і виявив їхнє справжнє походження: Саудівська Аравія та Іран. «Я використовував моделі ШІ для аналізу тисяч дописів у X (раніше Twitter). Ці інструменти допомогли мені виявити поведінку ботів, ідентифікуючи шаблони в часі, повторюваності та мережевій активності, — розповів Хелал GIJN. — Я також використовував обробку природної мови (NLP) для кластеризації акаунтів на основі їхнього стилю написання та взаємодії, що виявило групи комерційних акаунтів, імовірно найнятих для поширення контенту».

Інші журналісти, як Балкришна з India Today, бачать перспективу в здатності ШІ аналізувати великі набори даних або файли та допомагати в журналістиці даних. «Наша команда регулярно використовує різні інструменти ШІ у своїй роботі, — сказав він. — Деякі з них: Notebook LM для аналізу великих документів і виявлення в них шаблонів; ChatGPT для вилучення, очищення та сортування даних; Gemini для геолокації, картографування та вилучення координат місць із таблиць даних; інструменти ШІ для аналізу дипфейків і змінених медіа; Napkin AI для візуалізації». Балкрішна не лише використовує ШІ як інструмент для створення репортажу, але й проводить розслідування. У січні він став співавтором статті, яка виявила приховану прокитайську упередженість нового чат-бота DeepSeek.

Крістофер Ньютон з InSight Crime нещодавно дослідив чотири способи, якими латиноамериканські кримінальні групи почали використовувати ШІ, й планує глибше вивчити вплив цієї технології на корупцію та організовану злочинність у регіоні. А його редакція вивчає своїх читачів і покращує свій контент завдяки ШІ.

«Ми використовуємо ШІ в нашій системі моніторингу новин, щоб намагатися ранжувати статті за релевантністю та позначати їх для полегшення пошуку інформації у нашій внутрішній базі даних», — розповів Ньютон. Вони також використовують його для «допомоги у підвищенні ефективності кодування та допомоги у налагодженні при створенні власних інструментів або спеціальної графіки. Ми використовуємо ШІ для транскрипції, перекладу та редагування текстів (усе під наглядом/перевіркою людини)».

Члени GIJN, зокрема Міжнародний консорціум журналістських розслідувань (ICIJ) і Проєкт із розслідування організованої злочинності та корупції (OCCRP), інтегрували компоненти штучного інтелекту у свої власні інструменти Datashare та Aleph. Ці інструменти допомагають аналізувати мільйони записів і підтримують роботу журналістів у всьому світі через транскордонну співпрацю.

Це свідчить про майбутнє новинної індустрії, де технології ШІ можуть використовуватися як на користь, так і проти вільної преси. Від журналістів, особливо розслідувачів, залежить забезпечення того, щоб баланс схилявся на бік підзвітності та незалежності, а не репресій і пропаганди.

Як ідеться ц звіті ООН, «співпраця між відповідними учасниками є необхідною для розробки інструментів на основі ШІ для забезпечення цілісності інформації, виявлення та пом’якшення дезінформації та сприяння безпечним і заснованим на правах людини цифровим екосистемам».

Переклад: Ольга Татохіна

ГО «Детектор медіа» понад 20 років бореться за кращу українську журналістику. Ми стежимо за дотриманням стандартів у медіа. Захищаємо права аудиторії на якісну інформацію. І допомагаємо читачам відрізняти правду від брехні.
До 22-річчя з дня народження видання ми відновлюємо нашу Спільноту! Це коло активних людей, які хочуть та можуть фінансово підтримати наше видання, долучитися до генерування ідей та створення якісних матеріалів, просувати свідоме медіаспоживання і разом протистояти російській дезінформації.
Долучитись
Джерело матеріала
Згадувані персони
loader