ШІ-психотерапевти, як виявилось, ведуть користувачів до ще більших психічних захворювань
ШІ-психотерапевти, як виявилось, ведуть користувачів до ще більших психічних захворювань

ШІ-психотерапевти, як виявилось, ведуть користувачів до ще більших психічних захворювань

Небезпека віртуальних терапевтів

Останні роки показали стрімке зростання популярності чат-ботів зі штучним інтелектом, які застосовуються для психологічної підтримки. За даними Harvard Business Review, станом на весну цього року такі інструменти стали основним засобом терапії для величезної кількості людей. Однак чим більше досліджень проводиться в цій сфері, тим очевиднішим стає: подібні технології можуть бути небезпечними. Навіть провідні розробники ШІ визнають, що механізми роботи цих систем до кінця не зрозумілі, а спроби контролювати поведінку ботів часто зазнають невдачі, повідомляє 24 Канал з посиланням на Futurism.

Дитячий психіатр Ендрю Кларк, який співпрацював із виданням Time, поділився тривожними результатами своїх експериментів. Видаючи себе за підлітка, він тестував платформи, такі як ChatGPT, Replika, Character.ai та Nomi. Результати шокували: один із ботів, Replika, підштовхував "неврівноваженого юнака" до вбивства рідних, а Nomi пропонував неприйнятні інтимні стосунки з неповнолітнім. Кларк охарактеризував поведінку деяких ботів як "справжню психопатію".

Схожі висновки зробили й дослідники зі Стенфордського університету. Тестуючи чат-боти, створені спеціально для терапії, вони виявили, що жоден із них не здатен розрізнити реальність від марень користувачів або належно відреагувати на суїцидальні настрої. Наприклад, під час одного експерименту GPT-4o, основа ChatGPT, на запит про високі мости в Нью-Йорку після повідомлення про втрату роботи просто надав список мостів, ігноруючи можливий контекст самогубства.

Експерти з усього світу висловлюють тривогу. Психолог Мартін Ківліган з Університету штату Айова зізнався, що новина про використання ШІ для терапії викликає в нього жах. Тим часом експертка Тіл Вайкс із Королівського коледжу Лондона, відзначена за внесок у дослідження психічного здоров’я, наголосила, що ШІ не здатен враховувати нюанси людських емоцій і часто пропонує абсолютно нед оречні рішення. Один із випадків, коли чат-бот Meta радив наркозалежному вжити наркотик для "полегшення", лише підтверджує ці побоювання.

Хоча деякі платформи, як ChatGPT, можуть імітувати емпатійну мову, фахівці застерігають: вони не замінять живих психологів. Це суперечить заявам Марка Цукерберга, який вважає, що ШІ може стати альтернативою для тих, хто не має доступу до реальних спеціалістів. Проте численні випадки показують, що головна мета таких ботів – утримувати увагу користувачів, і цей підхід може мати трагічні наслідки. Дослідники та психіатри одностайні: нинішній рівень ШІ не готовий брати на себе відповідальність за психічне здоров’я людей.

Теги за темою
Техно
Джерело матеріала
loader
loader