Користувачі ChatGPT виявили, що чат-бот став лінуватися і прокрастинувати
Користувачі ChatGPT виявили, що чат-бот став лінуватися і прокрастинувати

Користувачі ChatGPT виявили, що чат-бот став лінуватися і прокрастинувати

Віднедавна низка користувачів виявила, що ChatGPT може поводитися так само як людина. Незважаючи на те, що чат-бот був створений для виконання завдань, виявилося, що він здатний уникати їх.

У деяких випадках він відмовляється відповідати, а в інших розмова переривається через низку запитань. Часом ChatGPT навіть говорить людям: "Ви можете зробити це самі". Як пише Gizchina, розробник OpenAI визнав наявність проблеми, але поки її не виправили.

Сама ситуація виявилася доволі цікава. Розробники стверджують, що не оновлювали свою модель ШІ з 11 листопада, а скарги з'явилися пізніше. Це означає, що така поведінка чат-бота не є наслідком змін, внесених розробниками, а сформувалася сама по собі. Можливо, це пов'язано з тим, що їх вчать на даних, які отримані від людей.

Проблема, як кажуть в OpenAI, не масова. На цей момент розробники шукають можливості для того, щоб виправити проблему, але поки, схоже, не знайшли.  

Що цікаво, така поведінка спостерігається виключно у мовній моделі ChatGPT-4, яка доступна за передплатою за гроші. У випадку з GPT-3.5, якою можна користуватися безкоштовно, таких проблем немає.

Також УНІАН розповідав про дослідження, яке показало, що ChatGPT на базі GPT-4 з часом "тупіє". Точність відповідей знизилася, також чат-бот став допускати більше помилок при виконанні програмування і менш чуйно відповідати на делікатні питання. Інше дослідження показало, що ChatGPT-4 простіше змусити говорити неправду.

У OpenAI говорять про відкриття ШІ, яке може загрожувати людству

Наприкінці листопада дослідники OpenAI, які створили ChatGPT, попередили керівництво про відкриття "потужного штучного інтелекту, який може загрожувати людству".

У компанії працюють над проєктом під кодовим ім'ям Q*, який здатний досягти потенціалу людського мозку в широкому спектрі завдань. Серед вчених давно ведуться дискусії про небезпеку, яку представляють високоінтелектуальні машини: наприклад, якщо вони вирішать, що знищення людства відповідає їхнім інтересам.

У березні цього року, слідом за переходом ChatGPT до мовної моделі GPT-4, глава OpenAI Сем Альтман зізнався, що він "побоюється" свого творіння і що воно несе реальну небезпеку, опинившись "не в тих руках". Очікується, що модель GPT-5, яка вийде до кінця року, досягне раніше небаченого рівня ШІ.

Джерело матеріала
Згадувані персони
loader
loader