Передача особистих даних ChatGPT може бути ризикованою для користувачів
Передача особистих даних ChatGPT може бути ризикованою для користувачів

Передача особистих даних ChatGPT може бути ризикованою для користувачів

Штучний інтелект дедалі частіше виступає в ролі особистого помічника, підтримуючи користувачів у щоденних справах. Проте, згідно з новим дослідженням компанії NordVPN, багато людей звертаються до ШІ з питаннями, що стосуються кібербезпеки, і це може становити потенційну загрозу.

Дослідження показало, що найпоширенішими запитами є поради щодо виявлення та уникнення фішингових атак, що свідчить про серйозне занепокоєння цією формою шахрайства. Також користувачів активно цікавлять рекомендації щодо вибору VPN та способи захисту особистих даних в інтернеті. Позитивною тенденцією є застосування ШІ для виявлення та протидії шкідливому програмному забезпеченню.

Втім, аналітики також зафіксували чимало химерних запитів, наприклад: “Чи можуть вкрасти мої думки через смартфон?” або “Чи знищиться вірус, якщо натиснути Delete?” Дехто навіть побоюється, що хакери здатні чути їхній шепіт або стежити за пристроєм через хмарні сервіси, особливо коли телефон під’єднано до зарядки під час грози.

Технічний директор NordVPN Маріюс Брієдіс наголошує, що подібні запити, хоч і здаються абсурдними, свідчать про низький рівень обізнаності в питаннях кібербезпеки, що робить людей більш вразливими до атак і шахрайства. Особливу тривогу викликає те, що під час спілкування з ШІ користувачі нерідко діляться конфіденційною інформацією – адресами, контактами, банківськими реквізитами чи обліковими даними. Це створює серйозні ризики для особистої безпеки.

Джерело матеріала
loader
loader