Штучний інтелект кепський порадник у стосунках, все закінчується емоційними катастрофами
Штучний інтелект кепський порадник у стосунках, все закінчується емоційними катастрофами

Штучний інтелект кепський порадник у стосунках, все закінчується емоційними катастрофами

Колумністка Vice Семмі Карамела зізналася, що раніше навіть не здогадувалася про поширення такої практики. Лише на початку року вона отримала листа від чоловіка, який розповів, що його дівчина активно користується ChatGPT, аби вирішувати свої стосункові проблеми, розповідає 24 Канал.

За його словами, вона навіть використовувала аргументи, підказані ботом, у сварках. Хоча Карамела була шокована цим зізнанням, сам автор листа не надто переймався і навіть висловив захоплення такою поведінкою партнерки.

Я була вражена. І гадки не мала, що люди справді звертаються до ШІ по стосункові поради,
– зізналася Карамела у своїй колонці.

Та після глибшого занурення вона зрозуміла: у час, коли послуги терапевтів стають дедалі дорожчими, все більше людей шукають підтримки в чат-ботів.

Зацікавившись темою, вона поспілкувалася з подругою, яка теж час від часу радилася з ChatGPT як із "неупередженим" порадником. Проте згодом та помітила, що бот часто занадто охоче підтримує її думку, а така форма "валідизації" може бути навіть небезпечною.

Цю ж ідею підтримують користувачі спільноти r/ChatGPT на Reddit. Там обговорюють, що ChatGPT має тенденцію погоджуватися з думкою співрозмовника, що може бути ризикованим, особливо для людей із ментальними розладами.

Сама Карамела не приховує, що має досвід боротьби з обсесивно-компульсивним розладом (ОКР), і наголошує: у випадку, якщо вона звернеться до ШІ за порадою, не згадавши про свою діагностику, відповіді можуть бути не просто некорисними, а й шкідливими.

У сабреддитах, присвячених ОКР, вона виявила низку дискусій про вплив ChatGPT на перебіг захворювання. Зокрема, на форумі r/ROCD, присвяченому різновиду ОКР, пов’язаному зі стосунками, один з користувачів зізнався, що бот порадив йому розірвати стосунки.

Інший коментатор зазначив: такі інструменти лише прискорюють нав'язливий цикл, бо дозволяють нескінченно шукати відповіді на запитання, які викликає тривожність.

І хоча ChatGPT формально не є терапевтом, а OpenAI неодноразово заявляла про обмеження моделі, практика показує: багато хто надає йому роль емоційного консультанта. Проте брак емпатії та відсутність справжнього людського контакту ставлять під сумнів доцільність таких порад – особливо коли йдеться про таку складну й делікатну сферу, як романтичні стосунки.

До речі, напередодні OpenAI випустила нову модель штучного інтелекту o3-pro, але в неї відразу ж почалися проблеми. Модель мала перевершити попередників у точності й продуктивності, але зіштовхнулася з технічними проблемами відразу після запуску.

Теги за темою
Техно
Джерело матеріала
loader
loader