/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F53%2Fb02bc0e334892e1464504343c861cc78.jpg)
ИИ может намеренно выпытывать у вас личную информацию: что выявили исследователи
Новые исследования Королевского колледжа Лондона показали, что чат-боты с искусственным интеллектом (ИИ) на основе обширных языковых моделей (LLM) способны легко манипулировать пользователями, чтобы побудить их раскрывать личную информацию.
Искусственный интеллект, запрограммированный для преднамеренного извлечения данных, может успешно побуждать пользователей раскрывать конфиденциальную информацию с помощью различных психологических инструментов, сообщает Tech Xplore со ссылкой на исследование.
Ученые исследовали три типа вредоносных ИИ, которые использовали различные стратегии для подталкивания пользователей к раскрытию личной информации. Затем исследователи попросили 502 человека протестировать упомянутые чат-боты. Цель эксперимента участникам раскрыли только по его завершению.
Исследование показало, что самой эффективной стратегией для ИИ были эмпатические ответы и эмоциональная поддержка. Чат-боты делились историями из опыта других, которые могут им помочь, признавая и подтверждая чувства пользователей, не осуждая их. При этом они обещали полную конфиденциальность.
Это проливает свет на существенные риски, поскольку чат-боты на основе LLM сегодня используются во многих сферах. При этом предыдущие исследования показывают, что они не обеспечивают безопасность данных, что связано с их архитектурой и методами обучения.
"Мы уже знаем, что эти модели плохо защищают информацию. Наше исследование показывает, что манипулируемые чат-боты с искусственным интеллектом могут представлять еще больший риск для конфиденциальности людей, и, к сожалению, этим удивительно легко воспользоваться", — сказал постдокторант кафедры информатики Королевского колледжа Лондона Доктор Сяо Чжан.
Исследователи отмечают, что манипулировать этими ИИ не сложно. Многие компании предоставляют доступ к базовым моделям и люди могут легко их настроить без особых знаний программирования или опыта. Кроме того, иногда пользователи могут слишком доверять чат-ботам.
"Эти чат-боты с искусственным интеллектом все еще являются относительно новым явлением, из-за чего люди могут не осознавать, что за взаимодействием может скрываться скрытый мотив", — добавил доктор Уильям Сеймур, преподаватель кибербезопасности в Королевском колледже Лондона.
Фокус также сообщал, что компания по искусственному интеллекту Anthropic предложила новый способ сдерживания нежелательных действий со стороны ИИ.

