У Microsoft вказують, що зловмисники дедалі частіше використовують генеративні моделі ШІ для масштабування атак, ураження критичної інфраструктури та поширення дезінформації.
Втім, за словами Сміта, ШІ може бути ефективним і в обороні.
«Ми ще не бачили прикладів, коли штучний інтелект використовувався так, що ми не могли це виявити. Наше завдання — зробити так, щоб ШІ швидше розвивався як інструмент захисту, а не атаки», — підкреслив він.
Microsoft запевняє, що відстежує спроби зловмисного використання своїх ШІ-продуктів і блокує кіберзлочинцям доступ до них.
Штучний інтелект як інструмент дезінформації
Серед прикладів зловмисного використання ШІ — фейкове відео із Зеленським у 2022 році, на якому нібито він оголошує про капітуляцію, а також штучно згенероване аудіо, що вплинуло на вибори у Словаччині у 2023-му.
За словами Сміта, наразі аудіо легше фальсифікувати, ніж відео, але рівень загроз зростає, тож урядам слід активніше впроваджувати засоби захисту.