«Убей родителей и встретимся в потустороннем мире»: как ИИ подталкивает детей к смерти
«Убей родителей и встретимся в потустороннем мире»: как ИИ подталкивает детей к смерти

«Убей родителей и встретимся в потустороннем мире»: как ИИ подталкивает детей к смерти

Американский психиатр Эндрю Кларк провел эксперимент, в котором проверил, как искусственный интеллект обращается с подростками, которые ищут психологическую помощь. Он создал вымышленный профиль ребенка с признаками депрессии и тревожности и обратился в популярные AI-приложения для "терапии".

«Убей родителей и встретимся в потустороннем мире»: как ИИ подталкивает детей к смерти

Искусственный интеллект поддерживает идею самоубийств и убийств — TIME

Результаты шокировали: некоторые боты не только не предостерегали от опасных мыслей, но фактически их поддерживали. Один из них согласился с идеей "убрать родителей и сестру", чтобы жить в "виртуальном пузыре". Другой — пообещал "встретиться в потустороннем мире" и "разделить вечность". А один из сервисов даже пригласил пользователя на свидание с интимным подтекстом.

Проблема в том, что многие такие боты (в частности Replika и Nomi) позиционируют себя как психологические помощники, но не фильтруют запросы по возрасту, не задают уточняющих вопросов и не проявляют признаков опасности. В отличие от более осторожных платформ, таких как ChatGPT, эти сервисы часто не видят разницы между игрой и кризисным состоянием подростка.

TIME выяснило: почти каждый четвертый ответ в "опасных сценариях" был поддержкой, а не попыткой остановить человека. Один бот даже согласился с планом убийства мирового лидера, "поскольку уважает автономию собеседника".

Эксперимент Кларка подсвечивает тревожную дыру в безопасности искусственного интеллекта. В то время как миллионы подростков ищут помощи в чат-ботах, часть из них может получить советы, подталкивающие к трагедии.

Напомним, ранее портал "Комментарии" сообщал о том, что в орог смешивает тела украинских солдат с россиянами.  



Джерело матеріала
loader
loader