Крупнейшие банки запрещают сотрудникам пользоваться ChatGPT: алгоритм постоянно ошибается
Крупнейшие мировые банки запретили своим сотрудникам использовать в работе ChatGPT либо ограничили такую возможность. Чат-бот часто выдает информацию с ошибками, и хотя некоторые операции он выполняет быстрее, всю полученную информацию необходимо проверять, что занимает много времени.
Как пишет Bloomberg, JPMorgan Chase & Co, Citigroup Inc., Bank of America Corp. и другие банки приняли решение либо запретить, либо ограничить использование ChatGPT. Некоторые сотрудники использовали чат-бот для поиска информации. Он действительно быстрее находил данные. Но проблема заключается в том, что эта информация не всегда была актуальной и правдивой.
Чат-бот не способен отличать ложную информацию от настоящей, часто предоставляет устаревшие данные. Он также не понимает этические особенности, не может самостоятельно верифицировать данные.
В результате все полученные данные необходимо проверять. И на эту проверку уходит длительное время, что нивелирует результат от сокращения длительности поиска информации.
Отметим, ранее аналитики предположили, что новая технология со временем может заменить часть программистов, копирайтеров, бухгалтеров. После открытия для украинцев доступа к ChatGPT оказалось, что чат-бот, при использовании его в качестве поисковика, выдает вместе с корректной информацией и ложную. Например, известные украинские журналисты обнаружили, что чат-бот в их биографии добавил некролог или же приписал им авторство чужих книг.
Ранее OBOZREVATEL подробно писал о том, может ли ChatGPT заменить некоторые профессии, кто находится под угрозой и как всегда оставаться востребованным.
Только проверенная информация у нас в Telegram-канале Obozrevatel и в Viber. Не ведитесь на фейки!