Квінтесенція лженауки: ШІ помиляється з відповідями у 60% випадків, з'ясували вчені
Квінтесенція лженауки: ШІ помиляється з відповідями у 60% випадків, з'ясували вчені

Квінтесенція лженауки: ШІ помиляється з відповідями у 60% випадків, з'ясували вчені

У сучасному світі багато професій покладаються на точні та перевірені дані, які часом не так просто знайти. Однак вчені з'ясували, що покладатися на штучний інтелект у цій справі, це останнє, що варто робити людям.

В епоху, коли штучний інтелект обіцяє здійснити революцію в багатьох галузях, останні дані свідчать про необхідність більш обережного підходу до довіри до цієї технології. Нове дослідження, проведене вченими, засвідчило, що інструменти пошуку, керовані штучним інтелектом, часто надають неточну інформацію, доходячи до абсурдних 94%, що викликає побоювання з приводу їхньої надійності, пише Futurism.

У Фокус.Технології з'явився свій Telegram-канал. Підписуйтесь, щоб не пропускати найсвіжіші та найцікавіші новини зі світу науки!

Дослідники оцінили вісім моделей ШІ, включно з ChatGPT від OpenAI і Gemini від Google, представивши їм уривки зі статей і попросивши визначити такі деталі, як заголовок, видавець, дата публікації та посилання.

Важливо Повстання машин скасовується. Штучний інтелект не готовий замінити лікарів

Результати такої перевірки, опубліковані в журналі Columbia Journalism Review, виявилися вельми показовими: у сукупності ці моделі відповіли неправильно більш ніж на 60% запитів. Примітно, що модель Perplexity AI, яка показала найкращі результати серед усіх протестованих, однаково мала 37% помилок, тоді як розпіарена модель Grok 3 від Ілона Маска помилялася в 94% випадків, що робить її повною протилежністю достовірної інформації.

Суттєвою проблемою стала схильність моделей давати неправильні відповіді з необґрунтованою впевненістю. Замість того щоб визнати свої обмеження або відмовитися від відповіді, ці інструменти ШІ часто надавали умоглядні або сфабриковані відповіді.

Ще одна проблема — нездатність цих інструментів ШІ правильно посилатися на першоджерела. Наприклад, ChatGPT майже у 40% випадків посилався на неправильні статті та у 21% випадків не вказав джерело. Відсутність належного зазначення джерела не тільки ускладнює роботу з перевірки фактів у різних сферах, а й позбавляє оригінальних авторів потенційного веб-трафіку, що негативно позначається на економіці онлайн-медіа, заявили вчені.

Ці висновки підкреслюють сучасні проблеми, пов'язані з використанням штучного інтелекту для точного пошуку інформації. У міру розвитку цих технологій розв'язання питань точності, калібрування довіри та правильної вказівки джерела розвиватиметься, однак на сьогоднішній день покладатися на подібні інструменти у важливих і точних сферах діяльності може стати дуже поганою ідеєю як для людини, що користується ними, так і для кінцевого споживача.

Раніше Фокус писав про те, як крихітні іскри від рослин під час грози впливають на повітря. Дослідження показує, що електричні заряди на листі дерев під час гроз можуть генерувати хімічні речовини, які здатні впливати на якість повітря.

Також Фокус писав про побоювання фахівців з приводу того, що ШІ може стати розумнішим за людину всього за п'ять років. Архітектори штучного інтелекту попереджають, що він зможе перевершити людей практично в будь-якому завданні.

Теги за темою
наука
Джерело матеріала
loader