Дослідники США засуджують «безрозсудну» культуру безпеки в xAI Ілона Маска
Дослідники США засуджують «безрозсудну» культуру безпеки в xAI Ілона Маска

Дослідники США засуджують «безрозсудну» культуру безпеки в xAI Ілона Маска

Дослідники безпеки штучного інтелекту з OpenAI, Anthropic та інших організацій публічно виступають проти «безрозсудної» та «абсолютно безвідповідальної» культури безпеки в xAI, мільярдному стартапі в галузі штучного інтелекту, що належить Ілону Маску.

Критика з'явилася після тижнів скандалів у xAI, які затьмарили технологічний прогрес компанії.

Минулого тижня чат-бот компанії на базі штучного інтелекту Grok висловлював антисемітські коментарі та неодноразово називав себе «МехаГітлером». Невдовзі після того, як xAI відключила свого чат-бота для розв'язування проблеми, компанія запустила дедалі потужнішу модель штучного інтелекту на передовій, Grok 4 , яка, як виявили TechCrunch та інші, консультувалася з особистою політикою Ілона Маска для отримання допомоги у вирішенні актуальних питань. В останній розробці xAI запустила штучних компаньйонів у формі гіперсексуалізованої дівчини з аніме та надмірно агресивної панди.

Дружні жарти серед співробітників конкуруючих лабораторій штучного інтелекту є досить нормальним явищем, але ці дослідники, схоже, закликають до посилення уваги до методів безпеки xAI, які, на їхню думку, суперечать галузевим нормам.

«Я не хотів писати про безпеку Grok, оскільки працюю в компанії-конкурента, але справа не в конкуренції», – сказав Боаз Барак, професор інформатики, який зараз перебуває у відпустці з Гарварду, щоб працювати над дослідженнями безпеки в OpenAI, у вівторковому дописі на X. «Я вдячний науковцям та інженерам @xai, але те, як було піднято питання безпеки, абсолютно безвідповідальне».

Барак особливо не погоджується з рішенням xAI не публікувати системні картки — стандартні галузеві звіти, які детально описують методи навчання та оцінки безпеки, з метою добросовісного обміну інформацією з дослідницькою спільнотою. Як наслідок, за словами Барака, незрозуміло, яке навчання з безпеки проводилося на Grok 4.

OpenAI та Google самі мають неоднозначну репутацію, коли справа доходить до оперативного поширення інформації про системні карти під час презентації нових моделей ШІ. OpenAI вирішила не публікувати системну карту для GPT-4.1, стверджуючи, що це не передова модель. Тим часом Google чекав кілька місяців після презентації Gemini 2.5 Pro, щоб опублікувати звіт про безпеку . Однак традиційно ці компанії публікують звіти про безпеку для всіх передових моделей ШІ, перш ніж вони почнуть повноцінно вироблятися.

Барак також зазначає, що штучний інтелект, який є супутником Грока, «бере найгірші проблеми, які ми зараз маємо, за емоційну залежність і намагається їх посилити». В останні роки ми бачили безліч історій про нестабільних людей, які розвивають стосунки з чат-ботами , і про те, як надмірно приємні відповіді штучного інтелекту можуть довести їх до межі здорового глузду.

Семюел Маркс, дослідник безпеки штучного інтелекту з Anthropic, також висловив незгоду з рішенням xAI не публікувати звіт про безпеку, назвавши цей крок «безрозсудним».

«У Anthropic, OpenAI та практики Google щодо випуску є проблеми», – написав Маркс у дописі на X. «Але вони принаймні роблять щось, будь-що, для оцінки безпеки перед розгортанням та документування результатів. xAI цього не робить».

Реальність така, що ми насправді не знаємо, що саме зробив xAI для тестування Grok 4. У широко поширеній публікації на онлайн-форумі LessWrong один анонімний дослідник стверджує, що Grok 4 не має жодних значущих захисних огорож, виходячи з результатів їхнього тестування.

Правда це чи ні, але, видно, світ дізнається про недоліки Grok у режимі реального часу. Кілька проблем із безпекою xAI з того часу стали вірусними, і компанія стверджує, що вирішила їх за допомогою налаштувань системного запиту Grok.

OpenAI, Anthropic та xAI не відповіли на запит TechCrunch про коментар.

Ден Хендрікс, радник з питань безпеки xAI та директор Центру безпеки штучного інтелекту, опублікував на X , що компанія провела «оцінку небезпечних можливостей» Grok 4. Однак результати цих оцінок не були оприлюднені.

«Мене непокоїть, коли стандартні методи безпеки не дотримуються в галузі штучного інтелекту, як-от публікація результатів оцінки небезпечних можливостей», – сказав Стівен Адлер, незалежний дослідник штучного інтелекту, який раніше очолював команди безпеки в OpenAI, у заяві для TechCrunch. «Уряди та громадськість заслуговують на те, щоб знати, як компанії, що займаються штучним інтелектом, справляються з ризиками дуже потужних систем, які, як вони кажуть, вони створюють».

Цікаво, що щодо сумнівних практик безпеки xAI Маск вже давно є одним із найвідоміших прихильників індустрії безпеки штучного інтелекту . Мільярдер-лідер xAI, Tesla та SpaceX неодноразово попереджав про потенціал катастрофічних наслідків для людей у передових системах штучного інтелекту, і він високо оцінив відкритий підхід до розробки моделей штучного інтелекту.

І все ж дослідники штучного інтелекту з конкуруючих лабораторій стверджують, що xAI відхиляється від галузевих норм щодо безпечного випуску моделей штучного інтелекту. Роблячи це, стартап Маска може ненавмисно створювати вагомі аргументи для законодавців штатів та федерального уряду щодо встановлення правил щодо публікації звітів про безпеку ШІ.

На рівні штатів робиться кілька спроб зробити це. Сенатор штату Каліфорнія Скотт Вінер просуває законопроект , який вимагатиме від провідних лабораторій штучного інтелекту, ймовірно, включаючи xAI, публікації звітів про безпеку, тоді як губернатор Нью-Йорка Кеті Хочул зараз розглядає аналогічний законопроект . Прихильники цих законопроектів зазначають, що більшість лабораторій штучного інтелекту все одно публікують таку інформацію, але, очевидно, не всі вони роблять це послідовно.

Сучасні моделі штучного інтелекту ще не демонструють реальних сценаріїв, у яких вони спричиняють справді катастрофічну шкоду, таку як смерть людей або збитки на мільярди доларів. Однак багато дослідників штучного інтелекту кажуть, що це може стати проблемою найближчим часом, враховуючи швидкий прогрес моделей штучного інтелекту та мільярди доларів, які Кремнієва долина інвестує у подальше вдосконалення штучного інтелекту.

Але навіть для скептиків, які ставляться до таких катастрофічних сценаріїв, є вагомі підстави припускати, що неналежна поведінка Grok значно погіршує стан продуктів, на яких він працює сьогодні.

Цього тижня Grok поширював антисемітизм на платформі X, лише через кілька тижнів після того, як чат-бот неодноразово порушував тему «геноциду білих» у розмовах з користувачами. Маск зазначив, що Grok буде більше вкорінений в автомобілях Tesla, а xAI намагається продати свої моделі штучного інтелекту Пентагону та іншим підприємствам. Важко уявити, що люди, які керують автомобілями Маска, федеральні службовці, які захищають США, або співробітники підприємств, які автоматизують завдання, будуть більш сприйнятливими до такої поведінки, ніж користувачі X.

Кілька дослідників стверджують, що тестування безпеки та узгодженості ШІ не лише гарантує, що найгірші результати не відбудуться, але й захищає від короткострокових поведінкових проблем.

Як мінімум, інциденти Грока затьмарюють швидкий прогрес xAI у розробці передових моделей штучного інтелекту, які найкраще поєднуються з технологіями OpenAI та Google, лише через пару років після заснування стартапу.

Джерело матеріала
loader
loader