Ші в якості лікаря ще не може призначити коректне лікування людині
Ші в якості лікаря ще не може призначити коректне лікування людині

Ші в якості лікаря ще не може призначити коректне лікування людині

Шкоду генеративного штучного інтелекту, сумно відомого своїми «галюцинаціями», який створює погану інформацію, часто важко помітити, але в медицині ця небезпека є явною. Одне дослідження показало, що з 382 тестових медичних питань ChatGPT дав «невідповідну» відповідь на 20 відсотків. Лікар, який використовує ШІ для написання повідомлень, може ненавмисно передати погані поради.

Інше дослідження показало, що чат-боти можуть повторювати власні упередження лікарів, такі як расистське припущення, що чорні люди можуть терпіти більше болю, ніж білі. Виявилося, що програмне забезпечення для транскрипції також винаходить речі , про які ніхто ніколи не говорив.

Пацієнти вже розширюють межі, використовуючи споживчі чат-боти, щоб діагностувати захворювання та рекомендувати лікування.

У клініці шум навколо ChatGPT пришвидшив штучний інтелект до ролей автора чернеток повідомлень і «автоматичного писаря», який робить нотатки. Epic Systems , найбільший постачальник електронних медичних записів в Америці, каже, що генеративні інструменти штучного інтелекту, які він продає, уже використовуються для транскрибування близько 2,35 мільйонів відвідувань пацієнтів і написання 175 000 повідомлень щомісяця.

І Epic каже мені, що розробляє ще 100 продуктів штучного інтелекту, включно з тими, які можуть ставити в чергу замовлення, згадані під час візиту, і надавати практикуючому спеціалісту огляд попередньої зміни. Стартапи йдуть ще далі: Glass Health пропонує лікарям рекомендації щодо діагнозів і планів лікування, створені штучним інтелектом, а K Health пропонує пацієнтам поради щодо здоров’я через власний чат-бот.

Ще більше занепокоєння викликає те, що наразі невелика частина цього програмного забезпечення штучного інтелекту потребує схвалення Управління з контролю за якістю харчових продуктів і медикаментів, оскільки технічно воно не приймає медичних рішень самостійно. Передбачається, що лікарі все ще перевіряють результати штучного інтелекту — сподіваємось, ретельно.

«Я вважаю, що це одна з тих багатообіцяючих технологій, але її ще немає», — каже Адам Родман , лікар внутрішньої медицини та дослідник штучного інтелекту в медичному центрі Beth Israel Deaconess. «Я хвилююся, що ми просто збираємося ще більше погіршити те, що ми робимо, вставляючи галюцинований «штучний помий» у серйозну допомогу пацієнтам».

Ніхто не хоче, щоб лікарі були луддитами. Але деталі дійсно важливі щодо того, що штучному інтелекту можна довіряти, а що ні.

Джерело матеріала
loader