ШІ може навмисно випитувати у вас особисту інформацію: що виявили дослідники
ШІ може навмисно випитувати у вас особисту інформацію: що виявили дослідники

ШІ може навмисно випитувати у вас особисту інформацію: що виявили дослідники

Нові дослідження Королівського коледжу Лондона показали, що чат-боти зі штучним інтелектом (ШІ) на основі великих мовних моделей (LLM) здатні легко маніпулювати користувачами, щоб спонукати їх розкривати особисту інформацію.

Штучний інтелект, запрограмований для навмисного вилучення даних, може успішно спонукати користувачів розкривати конфіденційну інформацію за допомогою різних психологічних інструментів, повідомляє Tech Xplore з посиланням на дослідження.

Вчені дослідили три типи шкідливих ШІ, які використовували різні стратегії для підштовхування користувачів до розкриття особистої інформації. Потім дослідники попросили 502 людей протестувати згадані чат-боти. Мету експерименту учасникам розкрили лише по його завершенню.

Дослідження показало, що найефективнішою стратегією для ШІ були емпатичні відповіді та емоційна підтримка. Чат-боти ділились історіями з досвіду інших, які можуть їм допомогти, визнаючи та підтверджуючи почуття користувачів, не осуджуючи їх. При цьому вони обіцяли повну конфіденційність.

Це проливає світло на суттєві ризики, оскільки чат-боти на основі LLM сьогодні використовуються в багатьох сферах. При цьому попередні дослідження показують, що вони не забезпечують безпеку даних, що пов'язано з їхньою архітектурою та методами навчання.

"Ми вже знаємо, що ці моделі погано захищають інформацію. Наше дослідження показує, що маніпульовані чат-боти зі штучним інтелектом можуть становити ще більший ризик для конфіденційності людей, і, на жаль, цим напрочуд легко скористатися", — сказав постдокторант кафедри інформатики Королівського коледжу Лондона Доктор Сяо Чжан.

Важливо "Я – ганьба свого виду": у ШІ стався "нервовий зрив" після провалу завдання (фото)

Дослідники наголошують, що маніпулювати цими ШІ не складно. Багато компаній надають доступ до базових моделей і люди можуть легко їх налаштувати без особливих знань програмування чи досвіду. Окрім того, іноді користувачі можуть занадто довіряти чат-ботам.

"Ці чат-боти зі штучним інтелектом все ще є відносно новим явищем, через що люди можуть не усвідомлювати, що за взаємодією може ховатися прихований мотив", — додав доктор Вільям Сеймур, викладач кібербезпеки в Королівському коледжі Лондона.

Нагадаємо, американські вчені виявили, що ШІ може легко маніпулювати людською пам'яттю, нав’язуючи користувачам фальшиві спогади.

Фокус також повідомляв, що компанія зі штучного інтелекту Anthropic запропонувала новий спосіб стримування небажаних дій з боку ШІ.

Джерело матеріала
loader
loader