Человечество в новой опасности: какие преступления могут провернуть с помощью ИИ
Человечество в новой опасности: какие преступления могут провернуть с помощью ИИ

Человечество в новой опасности: какие преступления могут провернуть с помощью ИИ

Эпоха искусственного интеллекта приносит человечеству новые вызовы. Мы давно используем инструменты ИИ – от алгоритмов на веб-сайтах до автомобилей с технологией распознавания дорожных знаков. ШИ является надежным инструментом для повышения эффективности, обработки и сортировки больших объемов данных.

Однако не все так прекрасно. Скептики бьют тревогу: новейшие технологии могут использовать мошенники для своих преступных целей. Какие преступления могут провернуть с помощью ИИ, рассказало издание The Conversation.

"Фишинговый крючок"

В обществе растет обеспокоенность тем, что преступники с помощью ИИ смогут выманивать у людей персональные данные. ChatGPT и Bard от Google уже активно используются для написания различных текстов. Искусственный интеллект создает эффективные маркетинговые сообщения и может помочь преступникам выглядеть правдоподобнее, когда они контактируют с потенциальными жертвами.

Фишинг – это игра чисел: ежедневно отправляется примерно 3,4 миллиарда спам-писем. Спам-фишинговые электронные письма обычно легко распознать, поэтому пользователи сразу их удаляют. Однако ИИ, говорят эксперты, может стать вспомогательным звеном в процессе получения информации от жертвы. Пользователи могут просто не отличить спам от нормального письма, а злоумышленники воспользуются этим.

Автоматизированные взаимодействия

Одной из первых функций искусственного интеллекта была автоматизация взаимодействия между клиентами и службами. Речь идет о текстовых сообщениях в чат-ботах и справочных службах. ИИ позволил быстрее реагировать на запросы клиентов и оптимизировать эффективность бизнеса. Преступники могут использовать те же инструменты, чтобы создавать автоматизированные взаимодействия с большим количеством потенциальных жертв. Например, мошенники притворяются банковскими служащими, пытаясь выяснить информацию о карте – древняя и, к сожалению, эффективная схема.

Технология Deepfake

Технологию Deepfake уже активно используют преступники. "ИИ действительно хорошо справляется с созданием математических моделей, которые можно "учить" на больших объемах данных реального мира", – отмечают ученые. С помощью Deepfake преступники создают фейковые видео, аудио, текстовые сообщения, имитацию голоса и т.д.

Получение доступа к паролям

Преступники называют эту технологию "brute forcing". ИИ помогает подобрать много комбинаций символов для взлома паролей. Вот почему длинные сложные пароли более безопасны, их труднее угадать этим методом. Brute forcing действует в разы быстрее, если злоумышленники уже кое-что знают о жертве: имена членов семьи или домашних животных, даты рождения и т.д.

Ранее OBOZREVATEL рассказывал, что согласно последним исследованиям ИИ может отобрать работу у 27% людей.

Подписывайтесь на каналы OBOZREVATEL в Telegram, Viber и Threads, чтобы быть в курсе последних событий.

Источник материала
loader
loader