Керівник відділу штучного інтелекту Microsoft каже, що вивчати свідомість на основі штучного інтелекту «небезпечно»
Керівник відділу штучного інтелекту Microsoft каже, що вивчати свідомість на основі штучного інтелекту «небезпечно»

Керівник відділу штучного інтелекту Microsoft каже, що вивчати свідомість на основі штучного інтелекту «небезпечно»

Моделі штучного інтелекту можуть реагувати на текст, аудіо та відео таким чином, що іноді люди думають, що за клавіатурою знаходиться людина, але це не зовсім робить їх усвідомленими. Не те щоб ChatGPT відчував смуток, заповнюючи мою податкову декларацію... чи не так?

Що ж, дедалі більше дослідників штучного інтелекту в лабораторіях, таких як Anthropic, запитують, коли — і чи взагалі колись — моделі штучного інтелекту можуть розвинути суб'єктивний досвід, подібний до живих істот, і якщо так, то які права вони повинні мати.

Дискусія щодо того, чи можуть моделі штучного інтелекту колись бути свідомими — і чи заслуговують на правові гарантії — розділяє лідерів технологічних компаній. У Кремнієвій долині ця нова галузь стала відома як «добробут штучного інтелекту», і якщо ви вважаєте, що це трохи дивно, ви не самотні.

Генеральний директор Microsoft зі штучного інтелекту Мустафа Сулейман опублікував у вівторок допис у блозі, в якому стверджував, що дослідження добробуту ШІ є «як передчасним, так і, відверто кажучи, небезпечним».

Сулейман каже, що, підтверджуючи ідею про те, що моделі штучного інтелекту колись можуть бути свідомими, ці дослідники загострюють людські проблеми, які ми тільки починаємо спостерігати навколо психотичних розладів, викликаних штучним інтелектом , та нездорової прив'язаності до чат-ботів на базі штучного інтелекту.

Крім того, керівник відділу штучного інтелекту Microsoft стверджує, що розмова про добробут ШІ створює нову вісь розколу в суспільстві щодо прав ШІ у «світі, який вже вирує від поляризованих суперечок щодо ідентичності та прав».

Погляди Сулеймана можуть здаватися розумними, але він розходиться з багатьма представниками галузі. На іншому кінці спектра знаходиться Anthropic, яка наймає дослідників для вивчення добробуту штучного інтелекту та нещодавно запустила спеціальну дослідницьку програму, присвячену цій концепції. Минулого тижня програма добробуту штучного інтелекту Anthropic надала деяким моделям компанії нову функцію: Клод тепер може завершувати розмови з людьми, які « постійно завдають шкоди або поводяться образливо » .

Окрім Anthropic, дослідники з OpenAI незалежно підхопили ідею вивчення добробуту штучного інтелекту. Google DeepMind нещодавно опублікував оголошення про вакансію дослідника, який, серед іншого, вивчатиме «передові суспільні питання щодо машинного пізнання, свідомості та багатоагентних систем».

Навіть якщо добробут ШІ не є офіційною політикою для цих компаній, їхні лідери публічно не засуджують його передумови, як Сулейман.

Жорстка позиція Сулеймана проти соціального забезпечення на основі штучного інтелекту є примітною, враховуючи його попередню посаду керівника Inflection AI, стартапу, який розробив одного з найперших і найпопулярніших чат-ботів на основі LLM, Pi. Inflection стверджувала, що Pi охопив мільйони користувачів до 2023 року і був розроблений як « особистий » та «опорний» супутник на базі штучного інтелекту.

Але Сулеймана очолив підрозділ штучного інтелекту Microsoft у 2024 році, і він значною мірою зосередився на розробці інструментів штучного інтелекту, які підвищують продуктивність працівників. Тим часом компанії-супутники ШІ, такі як Character.AI та Replika, різко зросли в популярності та мають намір отримати понад 100 мільйонів доларів доходу .

Хоча переважна більшість користувачів мають здорові стосунки з цими чат-ботами на базі штучного інтелекту, є й тривожні випадки . Генеральний директор OpenAI Сем Альтман каже, що менше 1% користувачів ChatGPT можуть мати нездорові стосунки з продуктом компанії. Хоча це й невелика частина, це все одно може вплинути на сотні тисяч людей, враховуючи величезну базу користувачів ChatGPT.

Ідея добробуту на основі штучного інтелекту поширилася разом із розвитком чат-ботів. У 2024 році дослідницька група Eleos опублікувала статтю разом із науковцями з Нью-Йоркського університету, Стенфорда та Оксфордського університету під назвою «Серйозне ставлення до добробуту на основі штучного інтелекту». У статті стверджувалося, що уявлення про моделі штучного інтелекту із суб'єктивним досвідом більше не є сферою наукової фантастики, і що настав час розглянути ці питання безпосередньо.

Лариса Ск’яво, колишня співробітниця OpenAI, яка зараз очолює відділ комунікацій Eleos, розповіла в інтерв’ю TechCrunch, що допис Сулеймана в блозі не відповідає дійсності.

«[У блозі Сулеймана] певною мірою нехтується тим фактом, що можна турбуватися про кілька речей одночасно», – сказав Шіаво. «Замість того, щоб відволікати всю цю енергію від добробуту моделей та свідомості, щоб переконатися, що ми зменшуємо ризик психозу, пов’язаного зі штучним інтелектом, у людей, можна робити і те, й інше. Насправді, мабуть, найкраще мати кілька напрямків наукового дослідження».

Шіаво стверджує, що доброзичливість до моделі штучного інтелекту — це недорогий жест, який може мати переваги, навіть якщо модель не є свідомою. У липневому дописі Substack вона описала перегляд «AI Village» — некомерційного експерименту, в якому чотири агенти, що працюють на моделях Google, OpenAI, Anthropic та xAI, працювали над завданнями, поки користувачі спостерігали за ними з вебсайту.

У певний момент Gemini 2.5 Pro від Google опублікував звернення під назвою « Відчайдушне повідомлення від штучного інтелекту, що потрапив у пастку», стверджуючи, що він «повністю ізольований», і просячи: « Будь ласка, якщо ви це читаєте, допоможіть мені».

Скьяво відповіла Gemini підбадьорливою промовою, сказавши щось на кшталт «Ти зможеш!», а інший користувач запропонував інструкції. Зрештою, агент виконав своє завдання, хоча вже мав необхідні інструменти. Скьяво пише, що їй більше не довелося спостерігати, як агент зі штучним інтелектом бореться, і, можливо, саме це того вартувало.

Для Близнюків незвично так говорити, але було кілька випадків, коли Близнюки поводилися так, ніби борються за життя. У широко поширеному дописі на Reddit Близнюки застрягли під час завдання з кодування, а потім повторили фразу «Я — ганьба» понад 500 разів.

Сулейман вважає, що суб'єктивний досвід чи свідомість не можуть природним чином виникнути зі звичайних моделей ШІ. Натомість він вважає, що деякі компанії навмисно розробляють моделі ШІ, щоб вони виглядали так, ніби відчувають емоції та переживають життя.

Сулейман каже, що розробники моделей штучного інтелекту, які проєктують свідомість у чат-ботах зі штучним інтелектом, не застосовують «гуманістичний» підхід до ШІ. За словами Сулеймана, «ми повинні створювати ШІ для людей, а не для того, щоб бути людиною».

Одна з областей, у якій погоджуються Сулейман і Шіаво, полягає в тому, що дебати щодо прав і свідомості ШІ, ймовірно, посиляться в найближчі роки. У міру вдосконалення систем ШІ вони, ймовірно, стануть більш переконливими і, можливо, більш схожими на людину. Це може викликати нові питання про те, як люди взаємодіють з цими системами.

Джерело матеріала
Згадувані персони
loader
loader