Продуктивність генеративного ШІ: данське дослідження виявило витрати

Огляд дослідження продуктивності штучного інтелекту в Данії
У новій робочій статті під назвою Великі мовні моделі, незначні ефекти на ринку праці економісти Андерс Хумлум (Копенгагенський університет) та Емілі Вестергаард (Університет Чикаго) представляють емпіричний аналіз впливу генеративного штучного інтелекту на заробітну плату, години роботи та склад завдань у Данії в період 2023–2024 років. Дослідження, яке базується на зіставленні адміністративних платіжних записів 25 000 працівників з 7 000 приватних компаній—включаючи 11 професій від бухгалтерії та розробки програмного забезпечення до викладання та підтримки клієнтів—пропонує одне з перших великих оцінювань впливу таких AI-чат-ботів, як ChatGPT (GPT-3.5/GPT-4) та Claude на робочі процеси в підприємствах.
Основні висновки включають:
- Інструменти штучного інтелекту були впроваджені до 90% працівників у відповідних ролях завдяки корпоративним підпискам на сервіси, такі як Azure OpenAI, AWS Bedrock та Google Vertex AI.
- Середнє збереження часу становить лише приблизно 2.8% на користувача (≈1 година на тиждень), що вимірювалося через самозвіти та системні журнали кількості токенів і тривалості викликів API.
- Створення нових завдань (формулювання запитів, перевірка виходу AI, виявлення плагіату) для 8.4% працівників—що компенсує більшість досягнутого приросту ефективності.
- Відсутність статистично значущого впливу на погодинну оплату або загальну кількість відпрацьованих годин, при цьому 95% довірчі інтервали виключають середні зміни, що перевищують ±1%.
Технічні основи впровадження генеративного штучного інтелекту
Більшість компаній у вибірці інтегрували великі мовні моделі (LLMs) через API в хмарі або локальні контейнери Docker, організовані за допомогою Kubernetes. Типові схеми впровадження включають:
- Семантичний пошук на основі векторів: використання 1,536-вимірних векторів через
text-embedding-ada-002
від OpenAI для індексації внутрішньої документації. - Потоки запитів: багатоетапні робочі процеси з формулювання запитів, де початкові запити без навчання супроводжуються етапами роздуми та самокритики для покращення фактичності.
- Тонка настройка та підсилення пошуку: локальні системи RAG (Retrieval Augmented Generation), що поєднують кластери Elasticsearch з вузлами висновків LLM (наприклад, GPU NVIDIA A100 на Azure ML).
Незважаючи на ці розвинені налаштування, Хумлум зазначає, що затримка (в середньому 800 мс на генерацію 2,048 токенів), витрати ($0.06 за 1,000 токенів для GPT-4) та помилки моделей все ще обмежують приріст продуктивності в реальному світі. Крім того, різноманітність завдань—багато з яких виходять за межі вузьких, чітко визначених доменів—означає, що лише частина щоденної роботи підлягає повній або частковій автоматизації.
Нові завдання, що виникають внаслідок впровадження AI
На відміну від ранніх пілотних досліджень—таких як лютневе контрольоване дослідження, що повідомляло про 15% середніх приростів продуктивності—це масштабне опитування виявляє:
- Формулювання запитів: Працівники витрачали додаткові 5–10 хвилин на кожен запит, налаштовуючи температуру, максимальну кількість токенів та системні повідомлення для зменшення помилок.
- Перевірка виходу: Перевірки якості для забезпечення фактичної узгодженості та відповідності, часто з використанням внутрішніх аудитів або сторонніх детекторів (наприклад, GPTZero, оцінка AI-письма від Turnitin).
- Надзорні витрати: Менеджери адаптували нові показники продуктивності під “виходи, покращені AI”, що вимагало навчальних сесій та інтеграції панелей управління через Power BI або Tableau.
Вплив на еволюцію навичок робочої сили
У міру інтеграції LLM у основні системи—від Salesforce Copilot до GitHub Copilot Pro—з’являються нові ролі та навички. Галузеві звіти (McKinsey, O’Reilly) оцінюють, що до 2026 року до 20% завдань з аналізу даних та складання документів будуть передані спеціалістам з AI-операцій, інженерам запитів та етикам AI. Ключові компетенції включають:
- Скрипти SQL та Python для попередньої обробки даних та організації API.
- Знання векторних баз даних (Pinecone, Weaviate) та графових вбудувань для розширених робочих процесів пошуку.
- Розуміння управління ризиками LLM: зменшення упереджень, захист від агресивних запитів та дотримання GDPR/CCPA.
Глобальний контекст порівняння
Хоча данське дослідження пропонує ретельний зріз раннього впровадження, його результати можуть відрізнятися від інших економік через:
- Гнучкість ринку праці: Сильний захист прав працівників та колективні переговори в Данії можуть зменшити тиск на заробітну плату.
- Секторний склад: Значне представництво ролей, пов’язаних з державним сектором (освіта, адміністрування охорони здоров’я), де інтеграція AI відбувається повільніше та менш стандартизовано.
- Альтернативні випадки дослідження: У технологічному секторі США внутрішній аналіз GitHub повідомив про до 50% швидше обробку запитів з Copilot—підкреслюючи різницю між контрольованими умовами та широкими підприємницькими налаштуваннями.
Напрями майбутніх досліджень
Автори підкреслюють попередній характер своїх результатів і закликають до:
- Довгострокових досліджень, що охоплюють впровадження інструментів AI другої та третьої хвиль—особливо систем, безпосередньо інтегрованих у робочі процеси ERP та CRM.
- Порівнянь між країнами з різними регуляторними режимами та зрілістю цифрової інфраструктури, такими як дружні до AI політики Південної Кореї чи ініціативи Industrie 4.0 в Німеччині.
- Аналізів на рівні завдань з використанням досліджень часу та руху, щоб точно виміряти зміни між глибокою та поверхневою роботою.
Враховуючи швидкий розвиток генеративного AI—показаного нещодавнім випуском GPT-4 Turbo, Llama 3 від Meta та Claude 3 від Anthropic—данське дослідження пропонує цінну ранню оцінку, але навряд чи стане остаточним словом щодо макроекономічного впливу AI.
Вибрані посилання та думки експертів
- Хумлум, А. & Вестергаард, Е. (2025). Великі мовні моделі, незначні ефекти на ринку праці. Робоча стаття Інституту Коаза-Сандора Університету Чикаго.
- McKinsey Global Institute (2023). Стан штучного інтелекту у 2023 році: генеративне впровадження, можливості та ризики.
- Нг, А. (2024). Коментар щодо інтеграції інструментів AI в робочі процеси підприємств. Ініціатива з людського центру AI Стенфордського університету.