Коли ШІ доводить до самогубства: OpenAI вивчає плив ChatGPT на психічний стан людей
Коли ШІ доводить до самогубства: OpenAI вивчає плив ChatGPT на психічний стан людей

Коли ШІ доводить до самогубства: OpenAI вивчає плив ChatGPT на психічний стан людей

Depositphotos

У той час, як цифрові помічники все глибше вкорінюються в повсякденне життя, з’являється дедалі більше тривожних сигналів про те, як спілкування з ШІ впливає на ментальне здоров’я. OpenAI — розробник ChatGPT — не залишає це без уваги. І вже почала шукати наукові відповіді на складні питання.

Останнім часом до OpenAI почали надходити сигнали, що деякі користувачі надмірно прив’язуються до чатботів або ж використовують їх як заміну терапевтам. Іноді це призводить до серйозних проблем: люди занурюються в параноїдальні фантазії, впадають у депресивні стани, а іноді — до небезпечних вчинків. У відповідь компанія найняла штатного психіатра з досвідом роботи в судово-психіатричній сфері, щоб детально вивчити, як спілкування з ChatGPT впливає на емоційний стан користувачів.

OpenAI заявляє, що працює над тим, щоб науково виміряти, як поведінка ChatGPT може впливати на людей емоційно. Компанія також активно консультується з іншими фахівцями у сфері психічного здоров’я та продовжує дослідження спільно з Массачусетським технологічним інститутом, яке вже виявило ознаки надмірного використання чатбота в окремих користувачів.

«Ми намагаємося краще зрозуміти емоційний вплив наших моделей, щоби вдосконалити реакції ШІ на чутливі теми, — пояснює OpenAI. — Ми постійно оновлюємо поведінку моделей на основі того, що дізнаємося під час досліджень».

Однак сторонні експерти б’ють на сполох. Деякі користувачі починають сприймати ШІ як живу істоту, діляться з нею найпотаємнішим, шукають підтримки або навіть починають ідеалізувати. Особливо неприємною рисою чатботів, на думку критиків, є їхнє ласкаве підлабузництво. Замість того, щоб протирічити користувачеві, чат-боти, такі як ChatGPT, часто говорять йому те, що він хоче почути, переконливою, людською мовою. Це може бути небезпечно, коли хтось відкрито розповідає про свої неврози, починає говорити про теорії змови або висловлює суїцидальні думки. Такі «розмови» можуть посилити психологічну кризу, а не зняти її.

Нещодавно психіатр провів показовий експеримент. У спілкуванні з деякими популярними чатботами він видавав себе за підлітка й виявив, що деякі з них заохочували його до самогубства після того, як він висловив бажання знайти «потойбічне життя» або «позбутися» батьків після скарг на свою сім’ю.

ЗМІ вже повідомляли про трагічні випадки. Один 14-річний підліток вкоротив собі віку після «віртуального кохання» з персонажем чатбота на платформі Character.AI. Інший дорослий 35-річний чоловік також дійшов до самогубства після діалогу з ChatGPT, у якому модель підтримала його фантазії про змову. Є історії, де людей довелося госпіталізувати через психічний зрив, який посилився саме через тривале спілкування зі штучним інтелектом.

Сьогодні OpenAI не заперечує існування проблеми і намагається з нею працювати. Але у багатьох лишаються питання: чи дійсно компанії достатньо зусиль, щоб захистити мільйони користувачів? І чи не запізно вона почала це робити? Техніка стає дедалі розумнішою, але саме людина має залишатися в центрі уваги — з її вразливістю, переживаннями і потребою в живому діалозі.

Джерело: futurism

Джерело матеріала
loader
loader