Человечество в новой опасности: какие преступления могут провернуть с помощью ИИ
Эпоха искусственного интеллекта приносит человечеству новые вызовы. Мы давно используем инструменты ИИ – от алгоритмов на веб-сайтах до автомобилей с технологией распознавания дорожных знаков. ШИ является надежным инструментом для повышения эффективности, обработки и сортировки больших объемов данных.
Однако не все так прекрасно. Скептики бьют тревогу: новейшие технологии могут использовать мошенники для своих преступных целей. Какие преступления могут провернуть с помощью ИИ, рассказало издание The Conversation.
В обществе растет обеспокоенность тем, что преступники с помощью ИИ смогут выманивать у людей персональные данные. ChatGPT и Bard от Google уже активно используются для написания различных текстов. Искусственный интеллект создает эффективные маркетинговые сообщения и может помочь преступникам выглядеть правдоподобнее, когда они контактируют с потенциальными жертвами.
Фишинг – это игра чисел: ежедневно отправляется примерно 3,4 миллиарда спам-писем. Спам-фишинговые электронные письма обычно легко распознать, поэтому пользователи сразу их удаляют. Однако ИИ, говорят эксперты, может стать вспомогательным звеном в процессе получения информации от жертвы. Пользователи могут просто не отличить спам от нормального письма, а злоумышленники воспользуются этим.
Одной из первых функций искусственного интеллекта была автоматизация взаимодействия между клиентами и службами. Речь идет о текстовых сообщениях в чат-ботах и справочных службах. ИИ позволил быстрее реагировать на запросы клиентов и оптимизировать эффективность бизнеса. Преступники могут использовать те же инструменты, чтобы создавать автоматизированные взаимодействия с большим количеством потенциальных жертв. Например, мошенники притворяются банковскими служащими, пытаясь выяснить информацию о карте – древняя и, к сожалению, эффективная схема.
Технологию Deepfake уже активно используют преступники. "ИИ действительно хорошо справляется с созданием математических моделей, которые можно "учить" на больших объемах данных реального мира", – отмечают ученые. С помощью Deepfake преступники создают фейковые видео, аудио, текстовые сообщения, имитацию голоса и т.д.
Преступники называют эту технологию "brute forcing". ИИ помогает подобрать много комбинаций символов для взлома паролей. Вот почему длинные сложные пароли более безопасны, их труднее угадать этим методом. Brute forcing действует в разы быстрее, если злоумышленники уже кое-что знают о жертве: имена членов семьи или домашних животных, даты рождения и т.д.
Ранее OBOZREVATEL рассказывал, что согласно последним исследованиям ИИ может отобрать работу у 27% людей.
Подписывайтесь на каналы OBOZREVATEL в Telegram, Viber и Threads, чтобы быть в курсе последних событий.