Microsoft вважає штучний інтелект небезпечним інструментом
Microsoft вважає штучний інтелект небезпечним інструментом

Microsoft вважає штучний інтелект небезпечним інструментом

Фахівці корпорації Microsoft попереджають про серйозні ризики, пов’язані з використанням штучного інтелекту (ШІ). Про це йдеться в новому дослідженні корпорації, опублікованому на сервері препринтів arXiv.

Що ще відомо

У дослідженні Microsoft проаналізувала понад 100 інструментів генеративного ШІ та виявила неминучі загрози безпеці, пов’язані з їх застосуванням. У компанії стверджують, що ШІ “ніколи не буде повністю безпечним”, наголошуючи на необхідності жорсткого контролю над процесом навчання мовних моделей (LLM) і активної роботи із запобігання помилкам.

Корпорація Microsoft, яка сама є розробником та інтегратором безлічі ШІ-продуктів, включно з Bing Chat, GitHub Copilot, Power BI та Azure AI, усвідомлює високий рівень відповідальності, пов’язаний із розвитком цієї технології. Саме тому компанія активно вкладає ресурси в дослідження безпеки ШІ.

Великі мовні моделі (LLM), на думку дослідників, не тільки посилюють наявні ризики, а й створюють нові. Навчання LLM на невірних або конфіденційних даних призводить до поширення цієї інформації моделями серед користувачів. Крім того, потенційна шкода від ШІ оцінюється як важко прогнозована.

Для підвищення безпеки фахівці Microsoft рекомендують суворий контроль на кожному етапі навчання LLM. Вони наголошують на вирішальній ролі людського фактора, а також на необхідності залучення фахівців із глибокими знаннями предметної галузі, високою культурною компетентністю та розвиненим емоційним інтелектом для роботи зі штучним інтелектом.

Источник материала
loader
loader