Розробники ШІ не готові до наслідків створення надрозумних систем
Розробники ШІ не готові до наслідків створення надрозумних систем

Розробники ШІ не готові до наслідків створення надрозумних систем

Жодна компанія не має чіткого плану у випадку створення ШІ на рівні людини.

Компанії, що займаються розробкою передового штучного інтелекту, не мають належних планів реагування на потенційні загрози, пов’язані зі створенням систем зі здібностями, порівнянними з людським інтелектом. Такий висновок міститься у щорічному звіті Інституту майбутнього життя (Future of Life Institute, FLI), який передає The Guardian.

Згідно з даними звіту, жодна з провідних технологічних компаній, що досліджувалися в межах Індексу безпеки ШІ, не отримала оцінку вище за D за напрямом “екзистенційна безпека”. Оцінювалися розробники провідних нейромереж, як-от Google DeepMind, OpenAI, Anthropic, Meta, xAI, Zhipu AI й DeepSeek.

“Галузь принципово не готова до власних заявлених цілей. Компанії стверджують, що досягнуть загального штучного інтелекту (AGI) протягом десятиліття, проте жодна з них не має чіткого, дієвого плану для забезпечення безпеки”, – йдеться у звіті.

Найвищу загальну оцінку отримала компанія Anthropic – С+, далі OpenAI – С та Google DeepMind з оцінкою С-. Жодна з компаній не досягла рівня, який свідчив би про достатню готовність до управління системами AGI, що можуть вийти з-під контролю або спричинити масштабні наслідки.

Професор Массачусетського технологічного інституту та співзасновник FLI Макс Тегмарк назвав ситуацію тривожною: “Це як будівництво гігантської атомної електростанції в Нью-Йорку, і її відкриття вже наступного тижня, але немає жодного плану запобігти її аварії”.

У документі зазначається, що нові моделі Grok 4 від xAI, Gemini 2.5 від Google та відеогенератор Veo3, свідчать про значний прогрес у розвитку можливостей ШІ. Водночас це підсилює актуальність питання безпеки, адже компанії тепер самі заявляють, що AGI може з’явитися не через десятиліття, а вже за кілька років.

Ще один звіт, оприлюднений аналітичною організацією SaferAI, підтверджує висновки FLI. У компаній, які працюють над розвитком ШІ, “слабкі або дуже слабкі практики управління ризиками”, а їхній поточний підхід “неприйнятний”. 

У відповідь на звіт представники Google DeepMind заявили, що документ не відображає всього обсягу їхніх зусиль у сфері безпеки. Компанія наголосила, що застосовує “комплексний підхід”, який виходить за межі показників, зафіксованих у дослідженні. Також The Guardian звернулися за коментарем до OpenAI, Anthropic, Meta, xAI, Zhipu AI та DeepSeek, але відповіді ще не отримали.

FLI – це некомерційна організація, що займається просуванням безпечного використання передових технологій. Оцінювання нейромереж здійснювалося групою незалежних експертів. До неї увійшли британський спеціаліст зі штучного інтелекту Стюарт Рассел і засновниця організації з регулювання ШІ Encode Justice Снеха Реванур. 

Джерело матеріала
loader
loader