ШІ маніпулюватиме людьми, змушуючи їх думати певним чином
ШІ маніпулюватиме людьми, змушуючи їх думати певним чином

ШІ маніпулюватиме людьми, змушуючи їх думати певним чином

Експерти припускають, що вже розробляють інструменти ШІ, які дають змогу виявляти, робити висновки, розуміти, прогнозувати і, врешті-решт, маніпулювати та перетворювати на "товар" людські плани і цілі.

Дослідники з Кембриджського центру Леверхалма з вивчення майбутнього інтелекту (LCFI) стверджують, що вибухове зростання генеративного ШІ і наше зростаюче знайомство з чат-ботами відкривають нові горизонти "технологій переконання". Про це повідомляє TechXplore. На них уже якісь натякали в нещодавніх корпоративних заявах технологічних гігантів.

У найближчому майбутньому можуть з'явитися помічники на основі штучного інтелекту, які прогнозуватимуть і впливатимуть на ухвалення нами рішень на ранній стадії, а також продаватимуть ці "наміри", що розвиваються, в режимі реального часу компаніям, здатним задовольнити потреби, — ще до того, як користувач усвідомлює, що прийняв рішення.

Це стверджують фахівці з етики ШІ з Кембриджського університету, які кажуть, що людство перебуває на зорі "прибуткового, але тривожного нового ринку цифрових сигналів намірів" — від купівлі квитків у кіно до голосування за кандидатів. Вони називають це "економікою намірів".

"Антропоморфні" агенти ШІ, від чат-ботів-помічників до цифрових репетиторів і подруг, отримають доступ до величезної кількості інтимних психологічних і поведінкових даних, які часто збирають за допомогою неформального розмовного мовного діалогу.

Дослідники стверджують, що цей ШІ поєднуватиме в собі знання наших мережевих звичок із надприродною здатністю підлаштовуватися під нас зручним для нас чином — наслідуючи особистості та передбачаючи бажані реакції — щоб вибудовувати рівні довіри та взаєморозуміння, які дадуть змогу здійснювати соціальну маніпуляцію в промислових масштабах.

"Величезні ресурси витрачаються на те, щоб впровадити помічників на основі штучного інтелекту в усі сфери життя, що має порушити питання про те, чиїм інтересам і цілям покликані служити ці так звані помічники", — заявив запрошений науковий співробітник LCFI д-р Якуб Чаудхарі.

"Те, що люди говорять під час розмови, як вони це кажуть, і тип висновків, які можна зробити в режимі реального часу, — це набагато інтимніша інформація, ніж просто записи онлайн-взаємодій".

Доктор Джонні Пенн, історик технологій з Кембриджського інституту LCFI, сказав: "Протягом десятиліть увага була валютою Інтернету. Можливість поділитися своєю увагою з такими соціальними мережами, як Facebook та Instagram, стала рушійною силою онлайн-економіки".

"Якщо не регулювати, економіка намірів ставитиметься до ваших мотивів як до нової валюти. Це стане золотою лихоманкою для тих, хто націлюється, спрямовує і продає людські наміри".

У статті Harvard Data Science Review Пенн і Чаудхарі пишуть, що економіка намірів буде являти собою економіку уваги, "розміщену в часі": профілювання того, як увага користувача і стиль спілкування пов'язані з моделями поведінки і вибором, який ми в кінцевому підсумку робимо.

Дослідники пишуть, що в економіці намірів великі мовні моделі (LLM) можна використовувати для визначення темпу мовлення користувача, політичних поглядів, словникового запасу, віку, статі, історії онлайн-відвідувань і навіть уподобань щодо лестощів і підлещування за невеликих витрат.

Цей збір інформації буде пов'язаний з посередницькими мережами торгів, щоб максимально підвищити ймовірність досягнення заданої мети, наприклад, продажу походу в кіно (Наприклад: "Ви згадали, що почуваєтеся перевантаженим роботою, замовити вам квиток у кіно, про яке ми говорили?").

Пенн і Чаудхарі стверджують, що це може включати управління розмовами в інтересах конкретних платформ, рекламодавців, підприємств і навіть політичних організацій.

Хоча дослідники кажуть, що економіка намірів наразі є "прагненням" для технологічної галузі, вони відстежують ранні ознаки цієї тенденції за опублікованими дослідженнями і натяками, озвученими кількома великими гравцями у сфері технологій.

До них належить відкритий заклик до "даних, які виражають наміри людини... будь-якою мовою, на будь-яку тему і в будь-якому форматі" в повідомленні в блозі OpenAI за 2023 рік, а директор із продуктів Shopify (партнера OpenAI) на конференції того самого року говорив про появу чат-ботів, які "явно визначатимуть наміри користувача".

У 2024 році нова платформа розробки "App Intents" від Apple для під'єднання застосунків до Siri (голосового персонального помічника Apple) містить протоколи для "передбачення дій, які хтось може здійснити в майбутньому" і "пропонування наміру застосунку комусь у майбутньому з використанням наданих [розробником] прогнозів".

"Як стверджується, агенти ШІ, такі як CICERO від Meta, досягають людського рівня в грі "Дипломатія", яка заснована на умовиводах і прогнозуванні намірів, а також використанні переконливого діалогу для просування своєї позиції", — сказав Чаудхарі.

Пенн зазначає, що ці події не обов'язково погані, але потенційно можуть бути руйнівними.

Раніше повідомлялося, що штучний інтелект можна навчити обманювати. Дослідники з компанії Anthropic визначили, що ШІ можна навчити не тільки ввічливо і правдиво комунікувати з людьми, а й обманювати їх. Ба більше, нейромережі змогли виконувати такі дії, як впровадження експлойта в комп'ютерний код, що, по суті, є хакерською атакою. ШІ навчили як бажаної поведінки, так і обману, вмонтувавши в нього тригерні фрази, які спонукали бота поводитися погано.

Джерело матеріала
loader
loader