/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F53%2Fb0c9c3dd0f70bd3887b9a1cb945b1251.jpg)
Ось як не варто використовувати ChatGPT: експерт розповів, що може зробити ШІ
Звернення до ChatGPT за емоційною підтримкою може бути не найкращою ідеєю, оскільки чат-боти зі штучним інтелектом (ШІ) не зобов'язані дотримуватися конфіденційності, як лікар чи психотерапевт.
Засновник OpenAI Сем Альтман нещодавно заявив, що за необхідності суд може юридично зобов'язати компанію розкрити листування з ChatGPT, пише Tom's Guide. Це варто враховувати, перш ніж розповідати ШІ про свої переживання.
Творець ChatGPT наголосив, що люди часто використовують ШІ як терапевта або лайф-коуча. Особливо це розповсюджено серед молодих людей, які мають проблеми у стосунках.
"Існує лікарська таємниця, існує юридична таємниця, що завгодно. Але ми ще не виробили чіткої позиції щодо того, як це застосовувати, коли ви спілкуєтеся з ChatGPT", — сказав Альтман.
Важливо Понад третина підлітків обирають ШІ замість друзів: чи загрожує це їхнім соціальним навичкамЯк зазначають у виданні, діалоговий ШІ буде тільки вдосконалюватися у своїй взаємодії з людьми та розумінні нюансів спілкування. Це своєю чергою може призвести до того, що все більше людей будуть звертатися до нього за допомогою у вирішенні особистих питань.
"Хоча ділитися деталями зі штучним інтелектом ставатиме все легше, користувачам варто добре подумати, що вони готові сказати", — підсумували автори статті.
Нагадаємо, модель штучного інтелекту Grok 4 від компанії xAI продемонструвала, що схильна писати доноси в державні органи та медіа, якщо запідозрить правопорушення.
Фокус також писав про те, як агент штучного інтелекту для програмування Gemini CLI не впорався з проханням організувати файли та видалив їх.

