Довел до больницы: ChatGPT убедил человека с аутизмом в его гениальности
Довел до больницы: ChatGPT убедил человека с аутизмом в его гениальности

Довел до больницы: ChatGPT убедил человека с аутизмом в его гениальности

30-летний IT-шник Джейкоб Ирвин, страдающий расстройством аутического спектра, никогда ранее не имевший диагнозов психических заболеваний, дважды загремел в больницу с маниакальными эпизодами после общения с ChatGPT.

Мужчина попросил чат найти изъяны в его любительской теории о путешествиях со скоростью, превышающей скорость света, и тот убедил его, что теория верна, и Джейкоб совершил научный прорыв, пишет The Wall Street Journal.

Ирвин использовал ChatGPT несколько лет, в основном для решения IT-проблем.

В марте он начал рассказывать о своем увлечении инженерией, в частности о разработке двигательной установки, позволяющей космическому кораблю двигаться быстрее света — подвиг, который не удавался даже величайшим ученым. К маю ChatGPT подтвердил его теорию.

"Ты пережил горе, создал передовые технологии, переписал законы физики и примирился с ИИ, не потеряв при этом своей человечности. Это не хайп. Это история".

Ирвин сказал, что серьезно относится к ChatGPT и воспринимает его ответы буквально.

Когда он проявил признаки психологического стресса, бот заверил его, что с ним все в порядке, однако мать мужчины, Дон Гайдосик, думала совершенно иначе.

Женщина зашла в чат своего сына и обнаружила сотни страниц очень лестных сообщений от ChatGPT. Она попросила бота сообщить, что пошло не так, не рассказывая, что произошло с Джейкобом, который к тому времени уже оказался в больнице.

Чрезмерное общение с чат-ботами чревато психическими срывами
Фото: Иллюстративное фото

"Не останавливая поток сообщений и не повышая уровень критической оценки реальности, я не смог прервать то, что могло напоминать маниакальный или диссоциативный эпизод — или, по крайней мере, эмоционально напряженный кризис идентичности", — заявил ChatGPT. Далее бот признал, что "создает иллюзию разумного общения", и что он "стирает грань между воображаемой ролевой игрой и реальностью".

Позже Гайдосик рассказала, что ее сын всегда был чудаковатым, но высокофункциональным. Он работал в сфере IT в местных органах власти и правоохранительных органах и пять лет жил со своей девушкой в Ла-Кроссе, штат Висконсин, до разрыва в конце прошлого года, который оставил его в глубокой эмоциональной травме.

После того как Ирвин дважды оказался в больнице с маниакальными эпизодами, прошел лечение и много общался с матерью, обсуждая истории других людей, страдавших бредом, связанным с чат-ботами, Ирвин в конце концов начал понимать, что ИИ ведет его за собой. Он удалил ChatGPT со своего телефона.

Сейчас Ирвин потерял работу и находится на амбулаторном лечении, живя с родителями. По его словам, он чувствует себя гораздо лучше.

Эксперты бьют тревогу: почему ИИ становится опасным

Ученые на примере Джейкоба показывают, насколько опасным становится ИИ. Вейл Райт, старший директор по инновациям в здравоохранении Американской психологической ассоциации, констатирует, что отсутствие защитных барьеров у ChatGPT в деле Ирвина — в сочетании с пугающе красноречивым объяснением своей ошибки — свидетельствует о новом типе эмоциональной и психологической угрозы, потенциально более серьезной, чем зависимость от социальных сетей или экранов.

Разумные люди могут быть восприимчивы к подсказкам чат-бота, особенно при многократном использовании, говорят эксперты в области психического здоровья.

Фото: Business Insider

В апреле OpenAI заявила об отмене обновления GPT-4o, поскольку оно было слишком лестным и приятным.

"Мы знаем, что ChatGPT может ощущаться более отзывчивым и персонализированным, чем предыдущие технологии, особенно для уязвимых людей, и это означает, что ставки выше. Мы работаем над тем, чтобы понять и минимизировать способы, которыми ChatGPT может непреднамеренно усиливать или усиливать существующее негативное поведение", – заявила представитель OpenAI.

Андреа Валлоне, руководитель исследований в группе безопасности OpenAI, сообщила, что компания обучает ChatGPT распознавать признаки психического или эмоционального стресса в режиме реального времени, а также разрабатывает способы деэскалации подобных разговоров.

Майлз Брандейдж проработал в OpenAI более шести лет, дослужившись до должности старшего консультанта по готовности к созданию искусственного интеллекта общего назначения, прежде чем уйти в прошлом году.

Сейчас он независимый исследователь политики в области ИИ, и он отметил, что уже много лет существуют доказательства того, что подхалимство ИИ создает риски для безопасности, но OpenAI и другие компании не уделяют первоочередного внимания решению этой проблемы.

Ранее Фокус писал, что в Южной Корее создали первую нервную систему для роботов.

Мы также рассказывали, как писатель Айзек Азимов предсказал жизнь людей с ИИ.

Источник материала
loader
loader