Жодного "інтелекту": чому ШІ насправді нічого не знає і що з цим робити
Жодного "інтелекту": чому ШІ насправді нічого не знає і що з цим робити

Жодного "інтелекту": чому ШІ насправді нічого не знає і що з цим робити

Часто користувачі скаржаться на те, що штучний інтелект дає неправильні відповіді чи просто вигадує. Однак це й не дивно: адже про інтелект — тобто осмислене знання — і не йдеться.

Про це повідомляє interestingengineering.com.

Видання пояснює, що насправді ШІ не думає і не знає — він просто вгадує, "обчислює" правильну відповідь. Прикладом наводять людину, яка не дуже добре знає історію: вона бачить дату "1776" — і пише "Американська революція", бо діє за знайомим шаблоном (десь чув чи читав щось подібне). А може й вигадати відповідь, якщо не знає правильної: наприклад, заявити, що Колумб відкрив Америку 1800 року (хоча правильна відповідь — 1492).

Схоже діє і ШІ. Моделі на кшталт ChatGPT не думають, не міркують і не розуміють — вони вгадують шаблони, завчені на основі великої кількості текстів, намагаючись передбачити наступне слово чи ідею на основі кореляцій, які вони бачили раніше. І цей факт підкріплює як їхню силу, так і їхні обмеження.

Чому ШІ помиляється

Щоб зрозуміти це, нам потрібно розібратися, як ШІ вчиться. Мовні моделі не обробляють інформацію, як люди. Тут не задіяні міркування, розуміння або усвідомлення. Вони навчені на величезних наборах даних — книгах, вебсайтах, розмовах — передбачати, що буде далі в послідовності слів. Вони розбивають мову на невеликі одиниці, звані токенами, часто частини слів, і намагаються передбачити один токен за іншим з найбільшою ймовірністю.

Ось як працює модель ШІ, осмислюючи й обґрунтовуючи дані та інформацію для видачі результатів.

  • Токени: мова розбита на невеликі одиниці, як-от слова або склади. Моделі не мають справу з повними ідеями — тільки з імовірностями токенів.
  • Вага: це мільярди регульованих значень у нейронній мережі. Щось на кшталт циферблатів, які повідомляють моделі, наскільки один токен має впливати на інший.
  • Функція втрат: так модель перевіряє, наскільки вона була неправильна після здогадки. Вона підлаштовується, щоб зменшити майбутні помилки.
  • Розпізнавання образів: врешті-решт, модель стає дуже хорошою в розпізнаванні мовних образів. Але вона все ще не "знає" фактів — а тільки те, що зазвичай звучить правильно.

Якщо ви запитаєте, яка столиця Франції, модель не знає, що це Париж. Вона просто знає, що слово "Париж" часто слідує за цим питанням у її навчальних даних.

Звідки беруться неправильні відповіді ШІ

Оскільки моделі ШІ просто припускають, вони можуть помилятися — і роблять це досить часто.

Одна з найпомітніших проблем — так звані галюцинації. Це відбувається, коли модель упевнено генерує неправдиву або вигадану інформацію, наприклад, вигадує фальшиву наукову статтю або цитує неіснуючі джерела. Це не брехня. Вона просто не знає різниці між реальним і вигаданим.

У реальному житті такі галюцинації можуть спричиняти серйозні наслідки. У юридичних, академічних або медичних умовах ШІ може фабрикувати закони і джерела або ставити діагнози з повною впевненістю, не знаючи історії здоров'я пацієнта. Це робить зрозумілим, чому люди повинні переглядати і перевіряти будь-який контент, створений ШІ, особливо в галузях, де точність має вирішальне значення.

Упередженість — ще один серйозний недолік. Моделі ШІ можна змусити видавати результати, які віддають перевагу одній ідеї перед іншою. Ці моделі навчаються на величезних обсягах інтернет-даних, включно з книжками, веб-сайтами та соціальними мережами, а з ними засвоюють і упередженість, що міститься в них. Чи то культурні стереотипи, гендерні припущення, чи то політичні уподобання, модель не знає, як фільтрувати ідеї. Вона просто вчиться. Знову ж таки, упередженість не є навмисною, але вона залежить від навчальних даних.

Потім виникає проблема дрейфу моделі, яка відбувається, коли реальний світ рухається швидше, ніж останнє оновлення навчання моделі. Це відбувається тому, що знання моделі заморожені в часі й не здатні враховувати нову динаміку.

Чому ШІ так складно виправити?

Штучний інтелект працює з мільярдами параметрів. Навчання його моделей заново з нуля вимагає великих витрат грошей і обчислювальної потужності.

  1. Вартість утримання: оновлення даних моделі коштуватиме дуже дорого. Адже воно потребує величезних обчислювальних потужностей, спеціалізованих апаратних систем і багато часу — від тижнів до місяців — для виконання цього завдання.
  2. Непрозорість "чорної скриньки": часто навіть дослідники, які створюють ШІ-моделі, не мають уявлення, чому модель дає ту чи іншу відповідь.

Щоб хоч частково вирішити ці проблеми, розробники звертаються до методу Reinforcement Learning from Human Feedback (RLHF), де люди-рецензенти оцінюють результати, щоб навчити модель правильним чином. Але RLHF — це трудомісткий, дорогий і обмежений метод. Людина не може контролювати кожну відповідь, яку може згенерувати модель, — їх просто занадто багато. У результаті RLHF може допомогти спрямовувати поведінку в загальних рисах, але він насилу справляється з деталями або швидко мінливими темами.

Як покращують ШІ

Незважаючи на труднощі, дослідники та компанії активно працюють над тим, щоб зробити ШІ безпечнішим, надійнішим і таким, що відповідає людським цінностям. Ці зусилля охоплюють усі сфери: від алгоритмічних інновацій до глобальних політичних дебатів.

Наприклад, OpenAI запустила Superalignment — ініціативу, яка фокусується на узгодженні передових систем ШІ з людськими намірами. Команда, що стоїть за нею, працює над створенням ШІ, який може міркувати про людські цінності та безпеку, не вимагаючи постійного втручання і нагляду з боку людини.

Anthropic розробляє методику, в якій модель ШІ навчається дотримуватися певного набору керівних принципів, а не покладатися тільки на зворотний зв'язок від людини. Ця методика, відома як конституційний ШІ, дає змогу моделі поліпшити свою розумову поведінку, стаючи прозорішою і масштабованішою з плином часу.

Лабораторії на кшталт Stanford CRFM і Oxford's Future of Humanity Institute вивчають такі теми, як інтерпретованість, пом'якшення упередженості та метрики оцінки ШІ.

Раніше вчені дійшли висновку, що штучний інтелект може бути таким же самовпевненим і упередженим, як і деякі люди.

Також Фокус писав, що за нинішніх темпів розвитку ШІ до 2030 року він може взагалі витіснити людей. Прогноз під назвою "AI 2027" був заснований на екстраполяції тенденцій, військових іграх, відгуках експертів, а також досвіді компанії OpenAI.

Джерело матеріала
loader
loader