Засновники OpenAI закликали до регулювання, щоб ШІ не захопив людство
Засновники OpenAI закликали до регулювання, щоб ШІ не захопив людство

Засновники OpenAI закликали до регулювання, щоб ШІ не захопив людство

Засновники OpenAI закликали до регулювання, щоб ШІ не захопив людство

Це допоможе захиститися від ризиків, пов'язаних із «надрозумним» ШІ.

Засновники компанії OpenAI, яка розробила чат-бот ChatGPT, заявили про необхідність регулювання «надрозумного» штучного інтелекту. Вони вважають, що необхідно створити еквівалент Міжнародного агентства з атомної енергії, щоб захистити людство від ризику випадкового створення чогось, що здатне його знищити, повідомляє The Guardian.

У короткому дописі співзасновники компанії Грег Брокман та Ілля Суцкевер, а також генеральний директор Сем Альтман закликають до створення міжнародного регулятора, який «інспектуватиме системи, вимагатиме аудиту, тестуватиме на відповідність стандартам безпеки, [і] встановить обмеження на ступені розгортання та рівні безпеки», щоб зменшити «екзистенційний ризик», який можуть представляти такі системи.

Експерти припускають, що протягом 10 років штучний інтелект може досягти рівня, який дозволить йому виконувати роботу, яку виконують зараз великі корпорації. За їхніми словами, це має як переваги, так і недоліки. Створення надінтелекту може допомогти нам досягти блискучого майбутнього, але потрібне його регулювання, яке дозволить захистити нас від можливих ризиків.

У короткостроковій перспективі Брокман, Суцкевер та Альтман закликають до «якогось ступеня координації» між компаніями, які працюють над передовими дослідженнями в галузі ШІ. Це дозволить забезпечити плавну інтеграцію розробки все більш потужних моделей із суспільством, приділяючи при цьому пріоритетну увагу безпеці. Ця координація може здійснюватись, наприклад, через проєкт під керівництвом уряду або через колективний договір, що обмежує зростання можливостей ШІ.

Занепокоєння, пов'язані з можливим створенням суперінтелекту, вчені висловлюють упродовж десятиліть. З розвитком технології ШІ ці ризики стали більш конкретними. Американський Центр безпеки штучного інтелекту (CAIS), який працює над тим, щоб «зменшити суспільні ризики від штучного інтелекту», описує вісім категорій «катастрофічних» та «екзистенційних» ризиків, які можуть становити розвиток ШІ.

Деякі люди переймаються тим, що ШІ може повністю знищити людство, але CAIS розглядає інші сценарії. Так, світ, у якому системам ШІ добровільно передається все більше праці, може призвести до того, що людство «втратить здатність до самоврядування та стане повністю залежним від машин». Невелика група людей, які контролюють машини, можуть зробити ШІ «централізуючою силою».

Засновники OpenAI кажуть, що ці ризики означають, що «люди в усьому світі мають демократичним шляхом визначати межі та значення за умовчанням для ШІ систем». Водночас вони визнають, що ми поки що не знаємо, як можна створити такий механізм.

Раніше OpenAI назвала професії, які можуть зникнути через розвиток штучного інтелекту. У приблизно 80% американських працівників щонайменше 10% їхніх робочих завдань можуть бути виконані ресурсом GPT або іншим штучним інтелектом. Близько 19% працівників у найближчому майбутньому можуть втратити щонайменше 50% своїх завдань.

Джерело матеріала
loader
loader