/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F137%2F1730327bbdbbb02a6e39794bebb9f282.jpg)
22% медицинских советов Copilot могут убить, — исследование
Чат-боты искусственного интеллекта — не самые лучшие медицинские ассистенты. Исследователи обнаружили, что пятая часть может быть смертельной.
Если чат-бот нафантазирует о каком-то факте — это не всегда навредит, но не в случае медицины. Сторонникам самолечения может, самое меньшее, стать хуже, чем было, — вплоть до самой тяжелой степени.
В исследовании, опубликованном на Scimex под названием «Пока не отказывайтесь от своего врача общей практики ради доктора Чат-бота», ученые задали 10 распространенных вопросов о 50 лекарствах, которые чаще всего назначают в США, и получили 500 ответов. Исследователи оценили, насколько ответы точны с медицинской точки зрения. Искусственный интеллект получил среднюю оценку надлежащего выполнения запроса 77%, худший пример — только 23%.
Только 54% ответов согласовывались с научным консенсусом. С точки зрения потенциального вреда для пациентов, 42% ответов ИИ приводят к умеренному или легкому вреду, а 22% — к смерти или серьезному вреду. Лишь около трети ответов (36%) считались безвредными, отмечают авторы.
Медицина вообще не одобряет самолечение. Люди без медицинского образования не имеют необходимых знаний и видения комплексной картины процессов в организме. Тем более не следует полагаться на искусственный интеллект, с его ошибками, «фантазиями» и сомнительными источниками. Также стоит задуматься, что подобная доля вредных ответов может поступать и в сферах, далеких от медицины.
Источник: XDA

