Штучний інтелект Google: Розкриття фейкових ідіом та ілюзій LLMs

Вступ
Минулого місяця вигадане висловлювання “Не можна лизати борсука двічі” стало сенсацією у соцмережах, яскраво демонструючи, як функція AI Overview від Google впевнено пояснює ідіоми, які насправді не існують. Користувачі виявили, що якщо додати слово “значення” до будь-якої випадкової комбінації слів у пошуковій стрічці Google, AI Overview — що працює на основі великих мовних моделей Google (LLMs) — створить авторитетне інтерпретаційне пояснення, доповнене вигаданими етимологіями та “історичними” посиланнями.
У цій розширеній статті ми розглянемо, як LLM Google генерують ці пояснення, чому іноді виникають “галюцинації” джерел і що це говорить про сучасний стан штучного інтелекту в пошуку. Ми спираємось на останні оновлення з Google I/O 2025, технічні характеристики моделей PaLM 2 та Gemini, коментарі експертів щодо галюцинацій LLM, а також новітні практики для зменшення надмірної впевненості AI.
Людина проти LLM: Думковий експеримент
Уявіть, що дитина просить вас пояснити вислів “Не можна лизати борсука двічі”. Типова людська реакція може бути такою:
- “Я ніколи не чув цього висловлювання; можеш сказати, де ти його бачила?”
- “Це не має сенсу — немає жодного культурного контексту чи традиції за цим.”
На наполегливі запитання, доброзичливий дорослий може імпровізувати метафору: асоціюючи “лизати” з “перехитрити”, спираючись на відомі ідіоми на кшталт “Обдурити один раз…” і підкреслюючи впертість борсука. Натомість AI Overview від Google обходить діалог і відразу пропонує єдине, впевнене пояснення, приписуючи значення та походження без будь-яких застережень — іноді навіть вигадуючи цитати, джерела чи історичні події.
Технічна архітектура AI Overview
У основі AI Overview Google використовує гібридну архітектуру, що поєднує:
- PaLM 2 та Gemini: Основні LLM, навчений на різноманітних веб-даних, налаштований для завдань відповідей на запитання та узагальнення.
- Інтеграція графа знань: Структурована база даних реальних сутностей, що використовується для підтвердження названих фактів, коли це можливо.
- Генерація з підтримкою витягування (RAG): У деяких експериментах, оголошених на Google I/O 2025, Google тестує RAG-процес, що отримує релевантні фрагменти з індексу перед запитом до LLM — крок, спрямований на зменшення галюцинацій.
Незважаючи на ці компоненти, поточні реалізації часто повертаються до чисто генеративного виходу, коли не існує відповідного вузла графа знань або індексованого фрагмента для нової фрази. В результаті LLM вільно екстраполює, створюючи “пояснення”, які звучать правдоподібно, але можуть не мати перевіреного підґрунтя.
Кейс-стаді: Від борсуків до черепах
Приклади, що були опубліковані, демонструють як вражаючі стрибки у семантиці, так і тривожні відступи у вигадках:
- Не можна лизати борсука двічі: Інтерпретовано як “раз обдурений, залишайся обережним щодо того ж трюку,” з вигаданим зв’язком до історичних спортивних змагань з борсуками.
- Не можна принизити черепаху: Оформлено як застережна метафора про незмінний характер, хоча жодна культура не зафіксувала це висловлювання.
- Коли бачиш черепаху, обернись у коло: Єдиний приклад, де AI Overview зізнався, що “це не стандартне висловлювання”, потім обережно пов’язав його з японськими дитячими римами — обнадійливий знак обґрунтованої невизначеності.
Перспективи експертів щодо галюцинацій LLM
Відомі дослідники штучного інтелекту підкреслюють, що великі мовні моделі не мають явних “перевірок знань”:
- Сем Альтман, OpenAI: “LLM інтерполюють шаблони, але не мають внутрішнього шару перевірки фактів — галюцинації неминучі, якщо не підкріплені витягуванням або символічним мисленням.”
- Доктор Емілі Бендер, Університет Вашингтона: “Ми створили системи, які говорять переконливо, але не можуть відрізнити правдоподібну вигадку від документованої істини. Користувачі бачать блиск, а не підвалини.”
На Google I/O 2025 віце-президент Google з пошуку, Ліз Рід, визнала ці проблеми та оголосила про майбутні механізми “Fact Shield” — комбінацію позначення джерел у реальному часі та оцінки впевненості, що покликана сигналізувати невизначеність, коли модель працює поза межами своєї інформаційної бази.
Стратегії пом’якшення та найкращі практики
Щоб зменшити вплив надмірно впевнених пояснень AI, інженери та команди продуктів можуть застосувати кілька стратегій:
- Калібрування впевненості: Відображати оцінки впевненості моделі або якісні категорії (наприклад, “Висока впевненість”, “Низька впевненість”) в інтерфейсі.
- Цитування джерел: Вимагати обов’язкового цитування індексованих документів; повертатись до “Я не впевнений”, якщо джерело не знайдено.
- Перевірка з людиною в процесі: Направляти запити з низькою впевненістю через легкий шар перевірки фактів перед відображенням.
- Інженерія запитів: Інструктувати LLM починати креативні інтерпретації з застережень, коли запитують про неіснуючі фрази.
Висновок: Баланс між креативністю та точністю
AI Overview від Google є кроком вперед у розмовному пошуку, демонструючи можливості LLM витягувати значення, навіть з нісенітниці. Проте ті ж механізми, що дозволяють поетичні інтерпретації, також сприяють впевненим галюцинаціям. У міру розвитку технології інтеграція надійного витягування, каліброваної невизначеності та чітких джерел стане ключем до перетворення AI Overview з розважальних курйозів на дійсно надійних супутників у пошуку.