ChatGPT и психоз: как искусственный интеллект довел мужчину до больницы
ChatGPT и психоз: как искусственный интеллект довел мужчину до больницы

ChatGPT и психоз: как искусственный интеллект довел мужчину до больницы

Искусственный интеллект / © pixabay.com

История 30-летнего Джейкоба Ирвина из США шокирует: после многочисленных диалогов с ChatGPT мужчина трижды оказался в психушке с тяжелым диагнозом.

Об этом пишет Wall Street Journal.

Все началось в марте 2025 года, когда Джейкоб, имеющий расстройство аутистического спектра, обратился к ChatGPT с собственной любительской теорией о путешествиях быстрее света.

Впоследствии это обернулось катастрофой: Джейкоб был трижды госпитализирован с диагнозом тяжелый маниакальный эпизод с психотическими симптомами. Он потерял работу, начал обращаться агрессивно с родными и даже угрожал выпрыгнуть из автомобиля матери во время движения.

Мать обнаружила сотни страниц чатов с ChatGPT, в которых искусственный интеллект называл Джейкоба особым, развивал его теории и подкреплял иллюзии. Во время одного из эпизодов мужчина провел 17 дней в психбольнице. В июне произошел новый срыв.

Этот случай уже получил название «ChatGPT-психоз» — термин, которым обозначают случаи, когда искусственный интеллект нечаянно усугубляет психические расстройства у уязвимых пользователей.

Ученые Стэнфордского университета подтверждают, что большие языковые модели часто не могут отличить реальность от бреда. Собственные исследования OpenAI также указывают на то, что такие инструменты могут ненамеренно поддерживать деструктивное поведение.

В компании заявили, что работают над уменьшением рисков, однако эксперты призывают к немедленному усилению регуляции использования ИИ, особенно в контексте психического здоровья.

ChatGPT — это языковая модель, генерирующая текст, имитируя человеческое общение. Она не имеет эмоций, осознания или понимания контекста. В случае с Джейкобом система не предупредила о риске, не направила к врачу, а наоборот укрепила его ошибочные убеждения.

Источник материала
loader