УкраїнськаУКР
EnglishENG
PolskiPOL
русскийРУС

Найбільші банки забороняють співробітникам користуватись ChatGPT: алгоритм постійно помиляється

Найбільші банки забороняють співробітникам користуватись ChatGPT: алгоритм постійно помиляється

Найбільші світові банки заборонили або обмежили своїм співробітникам можливість використовувати ChatGPT. Чат-бот часто видає інформацію з помилками, і хоча деякі операції він виконує швидше, всю отриману інформацію необхідно перевіряти, що багато часу.

Як пише Bloomberg, JPMorgan Chase & Co., Citigroup Inc, Bank of America Corp. та інші банки вирішили або заборонити, або обмежити використання ChatGPT. Деякі співробітники використовували чат-бот для пошуку інформації. Він справді швидше знаходив дані. Але проблема полягає в тому, що ця інформація не завжди була актуальною та правдивою.

Чат-бот не здатний відрізняти неправдиву інформацію від справжньої, часто надає застарілі дані. Він також не розуміє етичних особливостей, не може самостійно верифікувати всі дані.

В результаті, всі отримані дані необхідно перевіряти. І на цю перевірку також йде тривалий час, що нівелює результат скорочення тривалості пошуку інформації.

Зазначимо, раніше аналітики припустили, що нова технологія згодом може замінити частину програмістів, копірайтерів, бухгалтерів. Після відкриття доступу до ChatGPT українцям виявилося, що при використанні чат-бота як пошуковик він видає разом із коректною інформацією брехливі факти. Наприклад, відомі українські журналісти виявляли, що чат-бот у їхній біографії додав некролог, або ж приписав їм авторство чужих книг.

Раніше OBOZREVATEL докладно писав про те, чи може ChatGPT замінити деякі професії, хто перебуває під загрозою та як завжди залишатися потрібним.

Лише перевірена інформація в нас у Telegram-каналі Obozrevatel та у Viber. Не ведіться на фейки!