ChatGPT небезопасен: 5 вещей, которые нельзя говорить чат-боту с ИИ
ChatGPT небезопасен: 5 вещей, которые нельзя говорить чат-боту с ИИ

ChatGPT небезопасен: 5 вещей, которые нельзя говорить чат-боту с ИИ

Чат-боты с искусственным интеллектом (ИИ), такие как ChatGPT от OpenAI, могут использовать данные пользователей для дальнейшего обучения или предоставлять их третьим лицам для проверки соответствия правилам использования.

В Forbes назвали 5 вещей, которые никогда нельзя рассказывать ChatGPT или любому другому публичному облачному чат-боту.

Незаконные или неэтичные запросы

Многие ИИ-боты защищены от использования в неэтичных целях. Поэтому вопросы о том, как совершать преступления, мошенническую деятельность или манипулировать, могут привести к серьезным правовым последствиям и ущербу репутации.

Важно "Это самое жуткое": у ChatGPT спросили, как бы он захватывал мир (видео)

Нередко в политике использования указано, что о попытках использовать ИИ для незаконных действий может быть доложено властям. Эти законы могут сильно различаться в разных странах. К примеру, в Китае запрещена использовать ИИ для подрыва государственной власти или социальной стабильности, а в Великобритании предусмотрена уголовная ответственность за распространение откровенных изображений, созданных ИИ.

Логины и пароли

Многие люди используют агентный ИИ, способный подключаться к сторонним сервисам и использовать их. В издании предупреждают, что предоставлять ИИ учетные данные для входа может быть опасно.

После того как данные попадают в публичный чат-бот, их становится сложно контролировать. Известны случаи, когда персональные данные, введенные одним пользователем, раскрывались в ответах другим человеком.

Финансовая информация

Банковские счета или номера кредитных карт можно вводить только в защищенные системы, которые имеют встроенные защитные меры, такие как шифрование и автоматическое удаление данных после их обработки. Чат-боты с ИИ не имеют такой защиты.

Авторы статьи отметили, что после предоставления данных ИИ, невозможно узнать их дальнейшую судьбу. Ввод финансовой информации может сделать пользователя жертвой мошенничества, привести к краже личных данных, фишингу и атакам программ-вымогателей.

Конфиденциальная информация

Как отмечают в издании, у каждого есть обязанность хранить конфиденциальность информации, за которую он несет ответственность. Речь идет о соблюдении конфиденциальности перед своими работодателями, а также между профессионалами, например, врачами, юристами и бухгалтерами, и их клиентами.

Обмен деловыми документами, такими как заметки и протоколы совещаний или транзакционные записи, может считаться нарушением конфиденциальности, поэтому не стоит делиться рабочей информацией с ChatGPT.

Медицинские данные

Многие пользователи ChatGPT поддаются соблазну проконсультироваться с ИИ касательно своих проблем со здоровьем. Эксперты призывают делать это с крайней осторожностью, особенно учитывая, что недавние обновления позволяют ему "запоминать" информацию из разных чатов, чтобы лучше понимать пользователей

В издании подчеркнули, что ни одна из этих функций не имеет никаких гарантий конфиденциальности. Это предостережение особенно касается учреждений, связанных со здравоохранением, которые имеют дело с данными пациентов.

Также сообщалось, что киберпреступники внедряют небольшие дозы "отравленных данных" в важнейшие наборы обучения ИИ, что может привести к серьезным последствиям.

Источник материала
loader