/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F434%2F5041c5a27538e04ebaba187876cfef96.jpg)
Трамп заборонив ШІ в США бути політично, расово та ще якось уперередженим, на відміну від китайського провладного
Коли DeepSeek, Alibaba та інші китайські фірми опублікували свої моделі штучного інтелекту, західні дослідники швидко помітили, що вони уникли питань, що критикують Комуністичну партію Китаю. Пізніше офіційні особи США підтвердили , що ці інструменти розроблені з урахуванням позицій Пекіна, що викликало занепокоєння щодо цензури та упередженості.
Американські лідери у сфері штучного інтелекту, такі як OpenAI, вказували на це як на виправдання для швидкого розвитку своїх технологій, без надмірного регулювання чи нагляду. Як писав головний директор OpenAI з глобальних справ Кріс Лехейн у дописі LinkedIn минулого місяця, існує змагання між «демократичним ШІ під керівництвом США та автократичним ШІ комуністичного Китаю».
Виконавчий указ, підписаний у середу президентом Дональдом Трампом, який забороняє використання «пробудженого штучного інтелекту» та моделей штучного інтелекту, що не є «ідеологічно нейтральними», в державних контрактах, може порушити цей баланс.
У наказі засуджується ідеологія різноманітності, рівності та інклюзії (DEI), називаючи її «поширеною та деструктивною» ідеологією, яка може «спотворювати якість та точність результатів». Зокрема, у наказі йдеться про інформацію про расу чи стать, маніпуляції расовим чи сексуальним представництвом, критичну теорію раси, трансгендерність, несвідомі упередження, інтерсекціональність та системний расизм.
Експерти попереджають, що це може мати негативний вплив на розробників, які можуть відчувати тиск щодо узгодження результатів моделей та наборів даних з риторикою Білого дому, щоб забезпечити федеральні кошти для своїх підприємств, що витрачають багато коштів.
Це розпорядження було видано того ж дня, коли Білий дім опублікував «План дій щодо штучного інтелекту» Трампа , який зміщує національні пріоритети з суспільних ризиків і натомість зосереджується на розбудові інфраструктури штучного інтелекту, скороченні бюрократичних процедур для технологічних компаній, зміцненні національної безпеки та конкуренції з Китаєм.
Наказ доручає директору Адміністративно-бюджетного управління разом з адміністратором з питань федеральної політики закупівель, адміністратором загальних служб та директором Управління науково-технічної політики видати іншим установам вказівки щодо дотримання вимог.
«Раз і назавжди ми позбавляємося від «прокинутого» (або «прокинутого»)», – заявив Трамп у середу під час заходу, присвяченого штучному інтелекту, організованого All-In Podcast та Hill & Valley Forum. «Я підпишу указ, який забороняє федеральному уряду закуповувати технології штучного інтелекту, що містять партійні упередження або ідеологічні програми, такі як критична теорія раси, що є абсурдним. І відтепер уряд США матиме справу лише зі штучним інтелектом, який прагне правди, справедливості та суворої неупередженості».
Визначення того, що є неупередженим або об'єктивним, є однією з багатьох проблем, з якими стикається цей порядок.
Філіп Сірджент, старший викладач прикладної лінгвістики у Відкритому університеті, розповів TechCrunch, що ніщо ніколи не може бути об'єктивним.
«Один з фундаментальних принципів соціолінгвістики полягає в тому, що мова ніколи не буває нейтральною», — сказав Сірджент. «Тож ідея про те, що ви коли-небудь можете досягти чистої об’єктивності, — це фантазія».
Крім того, ідеологія адміністрації Трампа не відображає переконань та цінностей усіх американців. Трамп неодноразово прагнув припинити фінансування кліматичних ініціатив, освіти, суспільного мовлення, досліджень, грантів на соціальні послуги, програм підтримки громад та сільського господарства, а також гендерно-підтверджувальної допомоги, часто представляючи ці ініціативи як приклади «пробуджених» або політично упереджених державних витрат.
Як зазначив Румман Чоудхурі, спеціаліст з обробки даних, генеральний директор некомерційної технологічної організації Humane Intelligence та колишній науковий посланець США з питань штучного інтелекту: «Все, що не подобається [адміністрації Трампа], негайно викидається в цю зневажливу купу порожніх речей».
Визначення «пошуку правди» та «ідеологічного нейтралітету» в опублікованому в середу розпорядженні є в деяких аспектах розпливчастими, а в інших — конкретними. У той час як «пошук правди» визначається як LLM, що «надають пріоритет історичній точності, науковому дослідженню та об’єктивності», «ідеологічний нейтралітет» визначається як LLM, що є «нейтральними, неупередженими інструментами, що не маніпулюють відповідями на користь ідеологічних догм, таких як DEI».
Ці визначення залишають простір для широкого тлумачення, а також потенційного тиску. Компанії, що займаються штучним інтелектом, наполягають на зменшенні обмежень щодо своєї діяльності. І хоча виконавчий указ не має сили законодавства, передові компанії, що займаються штучним інтелектом, все ще можуть опинитися під впливом змінних пріоритетів політичного порядку денного адміністрації.
Минулого тижня OpenAI, Anthropic, Google та xAI підписали контракти з Міністерством оборони на отримання до 200 мільйонів доларів кожна для розробки агентних робочих процесів штучного інтелекту, що розв'язуватимуть критичні проблеми національної безпеки.
Незрозуміло, яка з цих компаній найкраще позиціонується, щоб отримати вигоду від заборони прокинутого ШІ, і чи будуть вони дотримуватися її.
TechCrunch звернувся до кожного з них і оновить цю статтю, якщо отримає відповідь.
Попри власні упередження, xAI, можливо, найбільше відповідає цьому порядку — принаймні на цьому ранньому етапі. Ілон Маск позиціонує Grok, чат-бота xAI, як найвищого анти-пробудженого, «менш упередженого» шукача правди. Системні підказки Grok вказують йому уникати зв'язків з основними органами влади та ЗМІ, шукати суперечливу інформацію, навіть якщо вона політично некоректна, і навіть посилатися на власні погляди Маска на суперечливі теми. В останні місяці Grok навіть висловлював антисемітські коментарі та вихваляв Гітлера на X, серед інших ненависницьких, расистських та мізогінних постів.
Марк Лемлі, професор права Стенфордського університету, розповів TechCrunch, що виконавчий указ «явно задуманий як дискримінація за поглядом, оскільки [уряд] щойно підписав контракт з Гроком, також відомим як «МехаГітлер»».
Поряд із фінансуванням Міністерства оборони США з боку xAI, компанія оголосила, що « Grok for Government » було додано до розкладу Адміністрації загальних служб, а це означає, що продукти xAI тепер доступні для придбання в кожній урядовій установі та агентстві.
«Правильне питання ось у чому: чи заборонять вони Grok, штучний інтелект, з яким вони щойно підписали великий контракт, тому що він був навмисно розроблений для надання політично заряджених відповідей?» — сказав Лемлі в інтерв'ю електронною поштою. «Якщо ні, то він явно розроблений для дискримінації певної думки».
Як показали власні системні підказки Грока, результати моделей можуть відображати як людей, які створюють технологію, так і дані, на яких навчається ШІ. У деяких випадках надмірна обережність серед розробників та ШІ, навченого інтернет-контенту, що пропагує такі цінності, як інклюзивність, призвела до спотворених результатів моделей. Наприклад, Google минулого року зазнав критики після того, як його чат-бот Gemini показав чорношкірого Джорджа Вашингтона та расово різноманітних нацистів, яких у наказі Трампа називають прикладом моделей ШІ, заражених DEI.
Чоудхурі каже, що її найбільший страх щодо цього розпорядження полягає в тому, що компанії, що займаються штучним інтелектом, активно перероблятимуть навчальні дані, щоб підкорити партійну лінію. Вона вказала на заяви Маска за кілька тижнів до запуску Grok 4, в яких говорилося, що xAI використовуватиме нову модель та її розширені можливості міркування, щоб «переписати весь корпус людських знань, додаючи відсутню інформацію та видаляючи помилки. А потім перенавчати на цьому».
Це нібито поставило б Маска в становище судді про те, що є правдою, що могло б мати величезні наслідки для того, як здійснюється доступ до інформації.
Звичайно, компанії робили висновки щодо того, яку інформацію можна побачити, а яку ні, ще з часів появи інтернету.
Консерватор Девід Сакс — підприємець та інвестор, якого Трамп призначив царем штучного інтелекту — відверто висловив свої занепокоєння щодо «пробудженого штучного інтелекту» в подкасті All-In, який був одним із організаторів оголошень Трампа про ШІ. Сакс звинуватив творців відомих продуктів ШІ у тому, що вони наповнюють їх лівими цінностями, представивши свої аргументи як захист свободи слова та застереження проти тенденції до централізованого ідеологічного контролю на цифрових платформах.
Проблема, кажуть експерти, полягає в тому, що не існує єдиної істини. Досягти неупереджених або нейтральних результатів неможливо, особливо в сучасному світі, де навіть факти політизуються.
«Якщо результати, які видає штучний інтелект, свідчать про правильність кліматичної науки, чи це лівосторонній ухил?» — сказав Сірджент. «Деякі люди кажуть, що для об’єктивності потрібно врахувати обидві сторони аргументу, навіть якщо одна сторона аргументу не має жодного значення».

