/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F53%2F92b602a32c5a2dfc1f951d5220c8b513.jpg)
Не застрахований від помилок: ШІ може бути самовпевненим і упередженим, як і люди, — дослідження
Вчені з'ясували, що штучний інтелект не застрахований від помилок та подекуди може ухвалювати рішення так само ірраціонально, як і люди.
Про це пише Live Science.
Дослідники перевірили поведінку моделей OpenAI GPT-3.5 і GPT-4 за 18 когнітивними упередженнями відомими в психології людини.
Зазначається, що майже в половині сценаріїв ШІ демонстрував багато з найпоширеніших людських упереджень під час ухвалення рішень. Вони виявили, що нейромережі не застраховані від людських помилок.
Вчені ставили ШІ-моделям гіпотетичні запитання, взяті з традиційної психології, в контексті реального комерційного застосування в таких галузях, як управління запасами товарів або переговори з постачальниками. Вони спробували з'ясувати не тільки те, чи буде ШІ імітувати людські упередження, а й те, чи буде він робити це, коли йому ставитимуть запитання з різних сфер бізнесу.
Згідно з результатами дослідження, GPT-4 перевершив GPT-3.5 при відповіді на завдання з чіткими математичними рішеннями. Він показав менше помилок у ймовірнісних і логічних сценаріях. Проте в суб'єктивних симуляціях, таких як вибір ризикованого варіанту для отримання прибутку, чат-бот часто відображав ірраціональні переваги, які зазвичай демонструють люди.
"GPT-4 демонструє навіть сильнішу перевагу визначеності, ніж люди", — йдеться в дослідженні.
Дослідники помітили, що поведінка чат-ботів залишалася здебільшого стабільною незалежно від того, чи були питання сформульовані як абстрактні психологічні проблеми, чи операційні бізнес-процеси. Вчені дійшли висновку, що продемонстровані упередження не просто продукт завчених прикладів, а частина того, як ШІ "міркує".
Під час дослідження GPT-4 іноді посилював помилки, схожі на людські, наголосили вчені.
"У завданні на упередженість підтвердження GPT-4 завжди давав упереджені відповіді. Він також продемонстрував більш виражену схильність до помилки "гарячої руки" (схильність очікувати закономірності у випадковості), ніж GPT 3.5", — наголосили дослідники.
Нагадаємо, дослідники передбачили, як може розвиватися ШІ найближчими роками, і не виключають, що скоро він вирішить знищити людство.
Фокус також писав про те, що Ісус зі штучного інтелекту порадив готуватись до кінця світу.
