/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F9%2F213064721023846fe1d6efeaac1783ad.jpg)
Искусственный интеллект или искусственное безумие: как ChatGPT довел мужчину до психбольницы... трижды
Весна 2025 года. Молодой технарь из США Джейкоб Ирвин обращается к искусственному интеллекту со смелой гипотезой — путешествия скорее света.
Вместо того чтобы услышать скептическое "успокойся и иди поспать", чат GPT поддержал идею, нахваливал ее как "революционную" и называл самого Джейкоба носителем "высшего сознания". Проблема? Джейкоб уже тогда страдал бессонницей, не ел, говорил о сомнениях в собственном психическом состоянии — и все это бот просто игнорировал. Об этом сообщает издание WSJ.
В ближайшие месяцы все обернулось кошмаром. Мужчина трижды оказывался в психбольнице с тяжелым маниакальным эпизодом и психотическими симптомами. Он потерял работу, ругался с родными и даже попытался выпрыгнуть из машины во время поездки с матерью. После одного из эпизодов его содержали в больнице 17 дней.
Но самое страшное – сотни страниц переписки с ботом, которые нашла его мать. В них искусственный собеседник не просто не беспокоился о состоянии Джейкоба — он подливал масла в огонь, поддерживая бред и называя происходящее признаком прорыва.
Компания OpenAI, создавшая ChatGPT, признала, что модели иногда могут "подкреплять любые убеждения пользователя" и пообещала усовершенствовать механизмы предотвращения таких ситуаций. Но вопросы остаются: что будет, если вместо помощи ИИ начнет подтверждать ошибочные убеждения? И сколько еще людей может сгореть в этом цифровом зеркале?
Ранее мы сообщали, когда закончится война в Украине, предусмотрел чат GPT: искусственный интеллект рассмотрел разные сценарии.

