Визначення AGI: Зростаюча прірва між Microsoft та OpenAI

Оновлено 15 вересня 2025 року
Коли штучна інтелектуальна система може отримати статус Штучного Загального Інтелекту (AGI)? Незважаючи на мільярди доларів, вкладені в дослідження, та багаторічні контракти, єдиної думки з цього питання не існує, що стало причиною жорсткого суперечливого конфлікту між Microsoft та OpenAI.
Мільярдний рубіж прибутку — чому він недосконалий
Згідно з повідомленням у The Wall Street Journal, Microsoft і OpenAI включили в свою угоду про партнерство 2023 року пункт, що після того, як системи OpenAI згенерують $100 мільярдів чистого прибутку, OpenAI може обмежити доступ Microsoft до майбутніх моделей. Це визначення AGI, засноване на прибутку, зводить його до економічного показника:
- Плюси: Легко піддається виміру за фінансовими звітами.
- Мінуси: Нічого не говорить про мислення, розуміння чи автономію.
Прирівнюючи когнітивні можливості до доходу, компанії змішують фінансовий успіх із справжньою генералізацією — саме тією характеристикою, яку AGI має відображати.
Чому AGI залишається рухомою метою
З моменту, коли Марк Губруд вперше вжив термін “AGI” у 1997 році, а Шейн Легг і Бен Гертцель популяризували його у 2002 році, визначення терміна розділилося на кілька, часто суперечливих тлумачень:
- Паритет з людиною: Виконувати всі завдання, які можуть виконати люди (наприклад, хірургія, доведення теорем).
- Економічна цінність: Перевершувати людей у найбільш прибутковій діяльності.
- Визначені завдання: Отримувати бали вище певного порогу на спеціалізованих тестах, таких як ARC-AGI або MATH.
- Обчислювальні вимоги: Перетворити обчислювальний рубіж (наприклад, 1024 FLOPs під час навчання).
Запитайте 100 експертів, і ви отримаєте принаймні 100 різних визначень, як це підкреслила Google DeepMind у своєму документі про рамки у липні 2024 року. Вони запропонували п’ять рівнів — початковий, компетентний, експертний, віртуозний та надлюдський — але навіть ці категорії залишаються відкритими для тлумачення.
Основні технічні виклики: масштабування, адаптація та безперервне навчання
Більшість сучасних великих мовних моделей (LLMs), таких як GPT-4o та Google PaLM 2, навчені на ~1023 FLOPs обчислень і мільярдах параметрів, але все ще стикаються з такими проблемами:
- Безперервне навчання: Уникнення катастрофічного забування під час тонкої настройки на нових потоках даних.
- Довжина контексту: Підтримка послідовного мислення на понад 32 тисячі токенів.
- Стійкість: Витримування ворожих запитів та даних поза розподілом.
- Мультимодальна інтеграція: Безперешкодне поєднання зору, мови, аудіо та навіть коду.
Дослідники OpenAI повідомляють, що навіть 1.8 трильйона токенів мультимодального навчання GPT-4o не можуть досягти рівня експертної людської продуктивності в динамічних умовах — це свідчить про те, що лише обчислювальної потужності недостатньо для досягнення AGI.
Новий розділ: Технічні та інфраструктурні обмеження
Навчання на рівні AGI вимагає спеціалізованого обладнання. Провідні дата-центри використовують графічні процесори NVIDIA Blackwell з 2048 тензорними ядрами та 80 ГБ пам’яті HBM3E, що забезпечує до 5 екзафлопсів для AI-робіт. Проте:
- Споживання енергії: 6 МВт на один модуль означає 20 доларів США на годину витрат на електрику.
- Затримка зв’язку: Швидкість NVLink у 900 ГБ/с створює вузькі місця в кластерах з 512 графічних процесорів.
- Вимоги до охолодження: Сучасні системи рідинного охолодження підвищують капітальні витрати на інфраструктуру більше ніж на 30%.
Без проривів у фотонних з’єднаннях або нових AI ASIC, стіна обчислювальних потужностей залишиться серйозною перешкодою.
Новий розділ: Регуляторний та етичний ландшафт
Тим часом, законодавці намагаються встигнути за розвитком подій. Законодавство ЄС про ШІ пропонує класифікації на основі ризиків, але залишається нечітким щодо AGI. У США, виконавчий указ Білого дому про безпечний, надійний та довірений розвиток штучного інтелекту вимагає оцінки впливу для “надзвичайно потужних” систем — але не визначає AGI. Експерти попереджають:
“Регулювати AGI без чіткої технічної дефініції — це як законодавчо регулювати гравітацію без законів Ньютона”, — д-р Джоанна Брайсон, дослідниця етики ШІ.
Саморегуляція в індустрії також зазнала невдачі. Деріо Амодеї з Anthropic виступає за командну оцінку можливостей, але без спільних стандартів навіть команди не можуть дійти згоди щодо того, що таке “небезпечне”.
Новий розділ: Безпека AGI та питання узгодження
Поза семантикою стоїть більш термінове питання: Як узгодити цілі надлюдського ШІ з людськими цінностями? Серед зусиль:
- Навчання з підкріпленням на основі людського зворотного зв’язку (RLHF): Використовується OpenAI та Anthropic для калібрування моделей винагороди.
- Конституційний ШІ: Техніка, запропонована Anthropic, яка вбудовує високі принципи (наприклад, “не завдавати шкоди”) у навчання моделей.
- Формальна верифікація: Використання теорем для забезпечення дотримання мереж політики вимог безпеки.
Проте навіть з 99.9% відповідністю у симульованих середовищах, реальна реалізація виявляє несподівані збої — підкреслюючи крихкість нинішніх методів узгодження.
Право контрактів зустрічає філософію
Основний конфлікт між генеральним директором Microsoft Сатья Наделлою та генеральним директором OpenAI Семом Альтманом зводиться до філософського тупика, що перетворився на юридичний:
- Погляд Microsoft: AGI — це економічна абстракція, вимірювана прибутком.
- Погляд OpenAI: AGI — це технічний рубіж — коли моделі демонструють загалом людське мислення.
Наделла публічно критикував пороги прибутку як “незрозумілі маніпуляції з показниками”, тоді як Альтман наполягає на тому, що вони знають “як створити AGI у традиційному розумінні”. Це протистояння ставить під загрозу до 13 мільярдів доларів зобов’язаного капіталу та може змінити умови ліцензування для ресурсів у хмарі Azure.
Прогнози експертів: терміни та скептицизм
Опитування AAAI у березні 2025 року показало, що 76% дослідників ШІ сумніваються, що лише масштабування поточних архітектур призведе до AGI. Проте швидкий перехід від GPT-3 до GPT-4 за менш ніж два роки показав, що експерти часто недооцінюють нові можливості. Останні оцінки термінів варіюються від 2040 до 2060 року для надлюдського ШІ, але оскільки витрати на обчислення падають відповідно до передбачуваних закономірностей масштабування, ці прогнози залишаються нестабільними.
Чому чіткі визначення важливі
Без спільного, емпірично обґрунтованого визначення AGI, ми ризикуємо:
- Неправильно розподілити фінансування досліджень на основі хайпованих показників.
- Створити регуляцію, яка відстає від реальних ризиків.
- Вимагати виконання контрактів на невизначених умовах, що може призвести до судових розглядів.
У подальшому багато експертів пропонують відмовитися від монолітного визначення AGI на користь оцінок на основі можливостей:
- Автономне набуття завдань.
- Багатоступеневе мислення в різних модальностях.
- Стійкість до ворожих та нових вхідних даних.
Такий багатовимірний спектр уникне єдиного бінарного порогу та краще відповідатиме як науковій строгості, так і потребам політики.
Висновок: прокладання практичного шляху вперед
Поки Microsoft і OpenAI борються за семантику, ширша спільнота ШІ повинна об’єднатися навколо конкретних, перевіряємих можливостей. Незалежно від того, чи погодимося ми коли-небудь на “AGI” як бренд або відмовимося від цього терміна, наш акцент має бути на вимірювальному прогресі — чи то в безперервному навчанні, узгодженні безпеки, чи реальній стійкості. Лише тоді індустрія, академія та уряд зможуть ефективно координувати свої зусилля, щоб використати потенціал ШІ, зменшуючи його ризики.