Літні читання, створені штучним інтелектом у Chicago Sun-Times

Огляд
18 травня 2025 року газета Chicago Sun-Times опублікувала 64-сторінковий рекламний додаток під назвою “Індекс спеки: Літній список книг на 2025 рік”. Цей матеріал, призначений для загального національного споживання, містив 15 обов’язкових до прочитання назв — 10 з яких були повністю вигадані штучним інтелектом і неправильно приписані бестселерним авторам, таким як Ізабель Альєнде та Енді Уїр. Ця помилка викликала широкі обговорення щодо галюцинацій штучного інтелекту, редакційних процесів та майбутнього перевірки контенту в медіа.
Деталі інциденту
Додаток був підготовлений фрілансером Марко Бускалья, який пізніше підтвердив 404 Media, що використовував AI-асистента — ймовірно, великий мовний модель (LLM), подібний до GPT-4 — для складання списку. Бускалья зізнався:
“Я іноді використовую AI для фону, але завжди перевіряю матеріал спочатку. Цього разу я цього не зробив і не можу повірити, що пропустив це — це так очевидно. Вся відповідальність на мені, і я повністю засмучений.”
Незалежний аудит Ars Technica виявив, що лише 5 з 15 назв дійсно існують; решта були “вигадками”, або правдоподібними, але хибними результатами, згенерованими через відсутність надійного механізму перевірки фактів у моделі.
Технічні аспекти галюцинацій штучного інтелекту
Галюцинації виникають, коли LLM передбачає послідовності токенів, які статистично нагадують реальні дані, але не мають фактичної основи. Ключові фактори включають:
- Прогалини в навчальних даних: Якщо корпус LLM до 2023 року містить обмежену метадані про майбутні випуски книг, він вигадує правдоподібні назви, комбінуючи вивчені патерни.
- Відсутність зовнішнього підтвердження: На відміну від генерації з підкріпленням (RAG), яка запитує актуальні бази даних, чисті LLM покладаються лише на внутрішні параметри та контекст запиту.
- Налаштування температури: Вищі температури вибірки (≥0.8) підвищують креативність за рахунок фактичної точності, збільшуючи ризик вигадок.
Дослідження Центру досліджень фундаментальних моделей Стенфордського університету (CRFM) оцінює, що неконтрольовані LLM викликають галюцинації в 15–30% завдань, що потребують знань. Інцидент зі списком книг ілюструє необхідність надійних шарів перевірки.
Процес створення рекламного контенту та інтеграція AI
Рекламні секції часто покладаються на агрегатори контенту, які постачають загальний, повторно використовуваний текст. У цьому випадку:
- Бускалья отримав загальне завдання на створення “літньої читанки”.
- Він звернувся до AI-асистента з запитом: “Складіть список з 15 літніх романів бестселерів з короткими синопсисами.”
- AI згенерував змішаний список реальних і вигаданих назв.
- Через скорочення штату та стислі терміни жоден редактор не перевірив ISBN чи каталоги видавців.
Оскільки редакція Sun-Times скоротила 23 співробітники в березні, ресурси для перевірки фрілансерського контенту були в обмеженій кількості. Мелісса Белл, CEO Chicago Public Media, прогнозувала економію в 4.2 мільйони доларів щорічно після викупів, але інцидент підкреслює потенційні витрати на довіру видавців.
Відгуки галузі та коментарі експертів
Експерти з журналістики та штучного інтелекту висловили свої думки:
“Це класичний випадок, коли вигадки AI потрапляють до друку. Видавці повинні впроваджувати перевірку з участю людини, особливо для фактологічного контенту,” — сказала доктор Емілі Шелдон, директор Лабораторії етики AI в Університеті Мічигану.
На Bluesky, Sun-Times заявила:
“Цей матеріал не є редакційним і не був затверджений нашою редакцією. Ми цінуємо вашу довіру і розслідуємо, як це сталося.”
Тим часом, фрілансер Джошуа Дж. Фрідман зазначив, що додаток був “прозорим заповнювачем” для малобюджетного фрілансера. Письменниця Рейчел Кінг висловилася в соціальних мережах: “Куди ми котимося, якщо газети не можуть навіть перевірити список книг?”
Глибший аналіз: Стратегії пом’якшення
1. Генерація з підкріпленням (RAG)
Впровадження RAG-процесу забезпечує, що модель видає підтверджені цитати з авторитетних джерел. Наприклад, інтеграція Google Books API або ISBNdb під час інференції може зменшити галюцинації до 90%, відповідно до нещодавнього дослідження Google AI.
2. Інструменти виявлення галюцинацій
Нові моделі, такі як GPT-4 Turbo, включають метрики кількісної оцінки невизначеності. Крім того, академічні команди в MIT та ETH Цюрих відкрили класифікатори, які позначають виходи з ймовірністю галюцинацій понад 60%. Видавці можуть інтегрувати ці детектори в редакційні робочі процеси CMS.
3. Водяні знаки та метадані
Нові технології водяних знаків вбудовують тонкі патерни в текст, створений AI, що дозволяє програмному забезпеченню виявляти його походження. У поєднанні з семантичними метаданими (наприклад, ідентифікатори авторів, хеші контенту) це додає прозорості до копії, що була створена за допомогою AI.
Правові та етичні наслідки
- Ризики дифамації: Неправильне приписування неіснуючих творів живим авторам може призвести до юридичних проблем у рамках законодавства про помилкове схвалення.
- Галузеві стандарти: Товариство професійних журналістів оновлює свій кодекс, щоб включити рекомендації щодо перевірки AI; дотримання може незабаром стати обов’язковим для акредитації преси.
- Регуляторний огляд: Відповідно до Закону ЄС про AI, високоризикові AI-додатки потребують аудиту перед впровадженням. Хоча рекламний контент ще не класифікований як “високий ризик”, майбутні поправки можуть поширити відповідальність на видавців.
Перспективи майбутнього
Оскільки LLM стають все більш поширеними в створенні контенту, видавці повинні адаптуватися:
- Інвестувати в API для реального часу перевірки фактів, які перехресно перевіряють реєстрації ISBN та бібліографічні бази даних.
- Розширити людський редакційний огляд за допомогою цифрових інформаційних панелей, які підкреслюють розділи, створені AI.
- Співпрацювати з розробниками AI для впровадження стандартів водяних знаків та відстежуваності.
Без цих заходів новинні організації ризикують втратити довіру читачів і зіткнутися з репутаційними та юридичними наслідками.
Останні новини
У червні 2025 року OpenAI випустила новий Інструмент безпеки контенту AI, який надає спеціалізовані плагіни для виявлення галюцинацій у процесах публікації. Одночасно Інститут Рейтерів оголосив про пілотну програму, що впроваджує блокчейн-технології для перевірки затвердження редакцій. Ці нововведення мають на меті запобігти майбутнім помилкам, подібним до інциденту в Chicago Sun-Times.