/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F137%2Fd06b109e385bbdf1cf5be20640d40317.jpg)
Google DeepMind докладно описала, як штучний інтелект може зруйнувати світ
/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F137%2Fbae73bb81894b3c286b7116ae0180ac1.png)
Дослідники Google DeepMind працювали над проблемою безпеки загального штучного інтелекту (AGI) та випустили документ, який пояснює ризики та принципи безпечної розробки.
Фал PDF містить величезну кількість деталей та має 108 сторінок до списку посилань на літературу. Деякі спеціалісти зі штучного інтелекту кажуть, що AGI — це нездійсненна мрія, автори з DeepMind вважають, що він може з’явитися до 2030 року. Фахівці прагнули зрозуміти ризики створення синтетичного інтелекту, схожого на людський, та вважають, що він може завдати людству серйозної шкоди.
Дослідження визначає чотири типи ризиків від AGI разом із пропозиціями, як їм запобігти. Команда DeepMind вважає проблемами неправильне використання, розбіжності (misalignment), помилки та структурні ризики. Неправильне використання та зміщення обговорюються в статті докладно, але два останні висвітлюються лише коротко.
Перша можлива проблема, неправильне використання, схожа на наявні ризики ШІ. Однак, оскільки AGI буде потужнішим за визначенням, шкода, яку він може завдати, набагато більша. З надто великим доступом до AGI може зловживати системою, щоб завдати шкоди — наприклад, виявити та використати вразливості нульового дня або створити вірус, який можна використовувати як біологічну зброю.
DeepMind каже, що компаніям, які розробляють AGI, доведеться провести всебічне тестування та створити надійні протоколи безпеки. Вони також пропонують розробити метод повного придушення небезпечних здібностей, який називають «відученням», але незрозуміло, чи можливо це без суттєвого обмеження моделей.
Розбіжність — стан, коли машина позбувається обмежень, накладених її розробниками. ШІ виконує дії, які, як він знає, не мали на меті розробника. DeepMind стверджує, що її стандарт для розбіжності є більш просунутим, ніж простий обман чи інтрига.
Щоб уникнути її, DeepMind пропонує розробникам працювати над надійністю моделей, проводити інтенсивне стрес-тестування та моніторинг, щоб виявити будь-які натяки на обман. AGI має знаходитися у віртуальних пісочницях із суворою безпекою та прямим людським наглядом, це допоможе пом’якшити проблеми.
Якщо ж штучний інтелект не знав, що його результат буде шкідливим, а людина-оператор не мала на меті шкоду, це помилка. Сучасні моделі ШІ теж роблять подібні помилки, але AGI може зробити більш значущі. DeepMind наводить приклад військових, котрі можуть розгорнути AGI через суперництво з можливим противником, але недостатньо «застрахують» його від помилок.
Стаття не містить надто доброго рішення для пом’якшення помилок. У ній дослідники рекомендують уникати різкого стрибка потужності ШІ. Вони пишуть про повільне розгортання та обмеження можливостей AGI, а також рекомендують пропускати команди AGI через систему «щит», яка гарантує їхню безпеку перед впровадженням.
Структурні ризики — ненавмисні наслідки роботи багатоагентних систем. Наприклад, AGI може створювати неправдиву інформацію, яка настільки правдоподібна, що ми вже не знаємо, кому або чому довіряти. У документі також висувається ймовірність того, що AGI може накопичувати все більше й більше контролю над економічними та політичними системами. «Потім одного разу ми дивимося вгору і розуміємо, що машини керують замість нас», — зазначає Ars Technica. таким ризикам найважче протистояти, це залежить від суспільного устрою та багатьох факторів.
Цей документ не є останнім словом щодо безпеки AGI — DeepMind зазначає, що це лише «відправна точка для життєво важливих розмов». Якщо дослідники не помиляються і AGI змінить світ лише за п’ять років, про це треба говорити вже зараз.
/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F137%2Fbae73bb81894b3c286b7116ae0180ac1.png)

