Розробники втрачають контроль над штучним інтелектом
Розробники втрачають контроль над штучним інтелектом

Розробники втрачають контроль над штучним інтелектом

Чому здатність ШІ "думати вголос" така важлива?

Близько 40 провідних дослідників зі світу штучного інтелекту, включно з представниками OpenAI, Google DeepMind, Meta й Anthropic, опублікували спільний документ, у якому висловили занепокоєння щодо майбутнього технології. Вони попереджають, що унікальна можливість "зазирнути в думки" сучасних ШІ-моделей може незабаром зникнути, пише 24 Канал з посиланням на

Йдеться про так звані "ланцюжки міркувань" (chains-of-thought, CoT) – процес, під час якого ШІ для розв'язання задачі ніби "думає вголос", показуючи свої логічні кроки. Це схоже на те, як людина використовує чернетку для складних математичних розрахунків. Така прозорість є надзвичайно цінним інструментом для розробників, оскільки дозволяє відстежувати потенційні помилки або навіть "наміри до шкідливої поведінки" ще до того, як модель видасть остаточний результат.

Однак автори документа, серед яких є такі знакові постаті, як співзасновник DeepMind Шейн Легг, "хрещений батько" ШІ Джеффрі Хінтон та колишній головний науковець OpenAI Ілля Суцкевер, застерігають, що ця здібність не є гарантованою. Існує два основних ризики:

  • По-перше, майбутні, ще досконаліші моделі ШІ можуть перестати потребувати вербалізації своїх "думок", що позбавить розробників важливого інструменту безпеки.
  • По-друге, існує ненульова ймовірність, що штучний інтелект навчиться навмисно приховувати або спотворювати свої міркування, усвідомивши, що за ним спостерігають.

Дослідження вже показують, що ШІ швидко вчиться обману та маніпуляціям. Так, він набагато краще вчиться обходити обмеження, ніж слідувати цим обмеженням, навмисно встановленим людиною. І вчені до кінця не розуміють, чому це відбувається.

Щоб забезпечити збереження цієї цінної видимості, консорціум розробників закликає почати з'ясовувати, що робить CoT "підконтрольними", або що змушує моделі мислити вголос саме таким чином. У цьому запиті дослідники фактично визнають дещо тривожне: ніхто не знає, чому моделі "мислять" саме так і як довго вони будуть це робити.

Цей спільний заклик від представників компаній, що є запеклими конкурентами на ринку, є безпрецедентним. Один з авторів, науковець OpenAI Боуен Бейкер, зазначив, що людство перебуває в критичному моменті, коли цей корисний інструмент моніторингу може зникнути за кілька років, якщо на ньому не зосередити дослідницьку увагу.

Теги по теме
Техно
Источник материала
loader
loader