Галюцинації ШІ: чому чат-боти зі штучним інтелектом можуть показувати неправдиву інформацію
Віртуальний меморіал загиблих борців за українську незалежність: вшануйте Героїв хвилиною вашої уваги!
Нова пошукова функція Google "Огляди штучного інтелекту" отримала негативну реакцію після того, як користувачі вказали на деякі фактично неточні відповіді на запити. Експерти пояснили, чому чат-боти зі штучним інтелектом (ШІ) здатні показувати неправдиву або оманливу інформацію.
AI Огляди, які запустили два тижні тому, показують у верхній частині сторінки пошуку Google відповіді на найпоширеніші запитання, які отримують з різних джерел в інтернеті. Мета нової функції – допомогти користувачам відповісти на "непрості питання", як зазначено в блозі Google.
Система видавала неправдиві відповіді. Наприклад, користувачеві було запропоновано приклеїти сир до піци, якщо він відклеївся, їсти каміння, щоб поліпшити здоров'я, або що колишній президент США Барак Обама – мусульманин, що є теорією змови, яка була розвінчана.
Дослідження, проведене стартапом Vectara, який займається розробкою генеративного ШІ, показало, що чат-боти вигадують інформацію в діапазоні від трьох до 27% випадків.
Що таке галюцинації штучного інтелекту
Великі мовні моделі (LLM), на яких працюють такі чат-боти, як ChatGPT від OpenAI і Gemini від Google, вчаться передбачати реакцію на основі шаблонів. Ханан Уазан, партнер та керівник відділу генеративного ШІ в Artefact, розповів, що модель обчислює найбільш ймовірне наступне слово для відповіді на ваше запитання на основі того, що є в їхній базі даних.
"Це саме те, як ми працюємо як люди. Ми думаємо, перш ніж говорити", – сказав він в інтерв'ю Euronews.
Іноді навчальні дані моделі можуть бути неповними або упередженими, що призводить до неправильних відповідей або "галюцинацій" з боку чат-бота.
На думку Олександра Сухаревського, старшого партнера QuantumBlack в McKinsey, правильніше називати ШІ "гібридною технологією", оскільки відповіді чат-ботів "математично обчислюються" на основі даних, які вони спостерігають.
В Google запевняють, що не існує єдиної причини, чому виникають галюцинації: це може бути недостатня кількість навчальних даних, які використовує модель, неправильні припущення або приховані упередження в інформації, яку використовує чат-бот. Google виявив кілька типів таких невідповідностей. Це стосується неправильних прогнозів подій, які насправді можуть не відбутися, помилкові спрацьовування через виявлення вигаданих загроз, а також негативні результати.
Компанія визнала, що своєрідні галюцинації можуть мати значні наслідки, наприклад, коли модель медичного ШІ неправильно ідентифікує доброякісну модель шкіри як злоякісну, що призводить до "непотрібних медичних втручань".
За словами керівника відділу ШІ в міжнародній фірмі з розробки продуктів HTEC Group Ігора Сево, все залежить від того, для чого використовується штучний інтелект.
"У творчих ситуаціях галюцинації – це добре. Питання в тому, як навчити моделі розрізняти творчість і правдивість", – пояснив він, зазначивши, що АІ-моделі можуть писати нові фрагменти тексту або електронні листи певним голосом або стилем.
Вся справа в даних
За словами Уазана, точність чат-бота залежить від якості набору даних, які він отримує.
"Якщо одне з джерел даних не є 100-відсотковим, чат-бот може сказати щось неправильне. Це основна причина, чому у нас виникають галюцинації", – сказав він.
Наразі, за словами Уазана, моделі ШІ використовують багато даних з інтернету та відкритих джерел для навчання своїх моделей.
OpenAI, зокрема, також укладає угоди з такими медіаорганізаціями, як Axel Springer і News Corp, і такими виданнями, як Le Monde, щодо ліцензування їхнього контенту, щоб вони могли навчати свої моделі на більш надійних даних. На думку Уазана, справа не в тому, що ШІ потребує більше даних для формулювання точних відповідей, а в тому, що моделі потребують якісних вихідних даних.
Сухаревський каже, що його не дивує, що чат-боти зі штучним інтелектом роблять помилки - вони вимушені, щоб люди, які ними керують, могли вдосконалювати технологію та її набори даних у міру того, як вони працюють.
Раніше OBOZ.UA повідомляв, що українські розробники створили перший ШІ-інструмент для відстежування та аналізу інформаційних злочинів РФ.
Тільки перевірена інформація в нас у Telegram-каналі OBOZ.UA та Viber. Не ведіться на фейки!