"Хрещені батьки" штучного інтелекту остерігаються, що він може вийти з-під контролю, тому пропонують покласти відповідальність за шкоду від нього на компанії-розробників.
Потужні системи штучного інтелекту загрожують соціальній стабільності, і компанії, що займаються штучним інтелектом, повинні нести відповідальність за шкоду, заподіяну їхніми продуктами.
Про це попереджає група старших експертів напередодні саміт з безпеки ШІ, пише The Guardian.
Неназваний співавтор політичних пропозицій від 23 експертів сказав, що було "вкрай необачно" розробляти все більш потужніші системи ШІ, перш ніж зрозуміти, як зробити їх безпечними.
"Настав час серйозно підійти до передових систем штучного інтелекту. Це не іграшки. Збільшення їхніх можливостей, поки ми не зрозуміємо, як зробити їх безпечними, є абсолютно безрозсудним", — сказав Стюарт Рассел, професор інформатики Каліфорнійського університету в Берклі.
Він додав, що нині існує більше правил навколо магазинів з їжею, ніж навколо компаній штучного інтелекту. Тож у документі-пропозиції автори звернулися із закликом ухвалити низку стратегій, зокрема:
- уряди мають виділяти одну третину своїх досліджень і розробок штучного інтелекту, а компанії – одну третину своїх науково-дослідних ресурсів на безпечне та етичне використання систем;
- надання незалежним аудиторам доступу до лабораторій ШІ;
- створення ліцензійної системи для створення передових моделей;
- компанії зі штучним інтелектом повинні вжити спеціальних заходів безпеки, якщо в їхніх моделях виявлено небезпечні можливості;
- покладання відповідальності на технологічні компанії за передбачувану та запобіжну шкоду від їхніх систем ШІ.
Слід додати, що на безпековий саміт щодо ШІ також будуть запрошені й інші співавтори документа, зокрема Джеффрі Хінтон та Йошуа Бенгіо, це двоє із трьох "хрещених батьків штучного інтелекту".
Цього року Хінтон звільнився з Google через "екзистенціальний ризик", який створює цифровий інтелект. Бенджіо, професор інформатики Монреальського університету, приєднався до нього та тисяч інших експертів, підписавши лист із закликаючи до мораторію на гігантські експерименти ШІ.
Автори попередили, що недбало розроблені системи штучного інтелекту загрожують "посилити соціальну несправедливість, підірвати наші професії, підірвати соціальну стабільність, сприяти широкомасштабній злочинній чи терористичній діяльності та послабити наше спільне розуміння реальності, яка є основою суспільства".
Вони зазначили, що поточні системи штучного інтелекту вже демонструють ознаки тривожних можливостей, які вказують шлях до появи автономних систем, які можуть планувати, переслідувати цілі та "діяти у світі". За словами експертів , модель GPT-4 AI, яка працює в інструменті ChatGPT, розробленому американською фірмою OpenAI, дозволяє проектувати та проводити хімічні експерименти, переглядати веб-сторінки та використовувати програмні інструменти, включаючи інші моделі AI.
У документі-пропозиціях йдеться про те, що "якщо ми створимо високорозвинений автономний ШІ, ми ризикуємо створити системи, які автономно переслідуватимуть небажані цілі, і ми не зможемо тримати їх під контролем".
Серед інших політичних рекомендацій в документі є таке:
- обов’язкове звітування про випадки, коли моделі демонструють тривожну поведінку;
- введення заходів для запобігання відтворенню небезпечних моделей;
- надання регуляторам повноважень призупиняти розробку моделей штучного інтелекту, які демонструють небезпечну поведінку.
Наступного тижня саміт з питань безпеки буде зосереджений на загрозах існування, які створює штучний інтелект, зокрема щодо допомоги в розробці нової біологічної зброї та уникнення контролю людини. Однак, незважаючи на те, що на саміті будуть окреслені ризики, пов’язані зі штучним інтелектом, і заходи щодо боротьби з цією загрозою, створення глобального регулюючого органу поки не очікується.
Деякі експерти зі штучного інтелекту стверджують, що страхи щодо загрози існуванню людей перебільшені. Так, головний науковець зі штучного інтелекту в Meta Марка Цукерберга Янн ЛеКун переконаний, що думка, що штучний інтелект може знищити людей, є "абсурдною".
Тим не менш, автори документу про політику стверджують, що якби передові автономні системи штучного інтелекту справді з’явилися зараз, світ не знав би, як зробити їх безпечними чи провести тести на їх безпеку.
"Навіть якби ми це зробили, більшості країн бракує інституцій, щоб запобігти неправильному використанню та підтримувати безпечну практику", — додали вони.
- Вчені зробили "жахливе" відкриття на дні Червоного моря: що там виявили (фото)
- Незвідане досі явище: у глибинах Всесвіту стався надпотужний вибух енергії
- У США стартувала друга за потужністю ракета у світі: як це було (фото, відео)