УкраїнськаУКР
EnglishENG
PolskiPOL
русскийРУС

Людство у новій небезпеці: які злочини можуть провернути за допомогою ШІ

2 хвилини
789
Людство у новій небезпеці: які злочини можуть провернути за допомогою ШІ

Епоха штучного інтелекту приносить людству нові виклики. Ми давно використовуємо інструменти ШІ – від алгоритмів на веб-сайтах до авто з технологією розпізнавання дорожніх знаків. ШІ є надійним інструментом для підвищення ефективності, обробки та сортування великих обсягів даних.

Однак не все так прекрасно. Скептики б’ють на сполох: новітні технології можуть використовувати шахраї для своїх злочинних цілей. Які злочини можуть провернути за допомогою ШІ, розповіло видання The Conversation.

"Фішинговий гачок"

У суспільстві зростає занепокоєння тим, що злочинці за допомогою ШІ зможуть виманювати у людей персональні дані. ChatGPT і Bard від Google вже активно використовують для написання різноманітних текстів. Штучний інтелект створює ефективні маркетингові повідомлення та навіть може може допомогти злочинцям виглядати правдоподібніше, коли вони контактують з потенційними жертвами.

Фішинг – це гра чисел: щодня надсилаються приблизно 3,4 мільярда спам-листів. Спам-фішингові електронні листи зазвичай легко розпізнати, тому користувачі одразу їх видаляють. Однак ШІ, кажуть експерти, може стати допоміжною ланкою у процесі отримання інформації від жертви. Користувачі можуть просто не відрізнити спам, а зловмисники цим скористаються.

Автоматизовані взаємодії

Однією з перших функцій штучного інтелекту була автоматизація взаємодії між клієнтами та службами. Мова йде про текстові повідомлення у чат-ботах та довідкових службах. ШІ дозволив швидше реагувати на запити клієнтів і оптимізувати ефективність бізнесу. Злочинці можуть використовувати ті самі інструменти, щоб створювати автоматизовані взаємодії з великою кількістю потенційних жертв. Наприклад, шахраї прикидаються банківськими службовцями, намагаючись вияснити інформацію про картку – давня і, на жаль, ефективна схема.

Технологія Deepfake

Технологію Deepfake вже активно використовують злочинці. "ШІ справді добре справляється зі створенням математичних моделей, які можна "навчати" на великих обсягах даних реального світу", – зазначають науковці. За допомогою Deepfake злочинці створюють фейкові відео, аудіо, текстові повідомлення, імітацію голосу тощо

Отримання доступу до паролів

Злочинці називають цю технологію "brute forcing". ШІ допомагає підібрати багато комбінацій символів для зламу паролів. Ось чому довгі складні паролі безпечніші, їх важче вгадати цим методом. Brute forcing діє в рази швидше, якщо зловмисники вже щось знають про жертву: імена членів сім’ї чи домашніх тварин, дати народження тощо.

Раніше OBOZREVATEL розповідав, що згідно з останніми дослідженнями ШІ може відібрати роботу в 27% людей.

Підписуйтесь на канали OBOZREVATEL в Telegram, Viber і Threads, щоб бути в курсі останніх подій.