OpenAI та Google Cloud об’єднали зусилля для масштабування обчислень у сфері ШІ

У несподіваному кроці, який приголомшив експертів галузі, OpenAI уклала багаторічну угоду для використання сучасної інфраструктури Google Cloud у навчанні та обслуговуванні своїх масштабних AI моделей. Угода, що була завершена у травні 2025 року, стала першим значним відступом від історичної ексклюзивності OpenAI з Microsoft Azure і свідчить про ширшу тенденцію до багатохмарної архітектури, що відповідає зростаючим вимогам до обчислювальних потужностей.
Передумови: Від ексклюзивності Azure до стратегії Multi-Cloud
Походження партнерства з Microsoft: З 2019 року OpenAI покладалася на Microsoft Azure для більшості своїх навантажень, прискорених за допомогою GPU. Значні капіталовкладення у 2021 та 2023 роках, які в сумі перевищили 20 мільярдів доларів, закріпили Azure як ексклюзивного постачальника хмарних послуг для OpenAI, що сприяло стрімкому зростанню ChatGPT.
Перехід до Multi-Cloud: Наприкінці 2024 року керівники OpenAI почали тихо досліджувати альтернативних постачальників. Згідно з звітами Reuters у жовтні, у центрах обробки даних Azure виникли проблеми з постачанням, зокрема затримки у доставці NVIDIA H100 GPU pod до шести місяців. Це ускладнення спонукало OpenAI вести переговори з Google Cloud, CoreWeave та консорціумом Stargate від SoftBank для диверсифікації своїх джерел обладнання.
Технічний аналіз: TPU v5 проти архітектур GPU
- Google TPU v5 Pods:
- Максимальна продуктивність: 1.2 ексафлопа FP16 змішаної точності
- Пам’ять: 256 ГБ HBM3e на платі TPU, 7.2 ТБ/с пропускна здатність
- Зв’язок: 1.6 Тбіт/с мережа radix, що використовує квантову комутацію Google
- NVIDIA H100 SXM:
- Максимальна продуктивність: 740 терафлопів FP16
- Пам’ять: 80 ГБ HBM3, 3.35 ТБ/с пропускна здатність
- NVLink 4.0: 900 ГБ/с зв’язок між GPU
Вбудований TPU-TS ASIC в TPU v5 пропонує спеціалізовані матричні множники, які забезпечують вищу пропускну здатність для моделей на основі трансформерів, тоді як стек SDN Andromeda від Google оптимізує затримки на рівні подів, що є критично важливим для розподіленого навчання на тисячах чіпів.
Стратегічні наслідки для екосистеми AI
Попри гостру конкуренцію — ChatGPT від OpenAI становить серйозну загрозу для реклами Google Search — обидві сторони бачать взаємну вигоду:
- OpenAI: Отримує швидкий доступ до додаткових потужностей AI, зменшуючи затримки з Azure і скорочуючи час навчання для GPT-4X на 25% завдяки прискоренню TPU v5.
- Google Cloud: Підтверджує свою нейтральну позицію постачальника, демонструючи TPU pod для залучення інших великих AI-клієнтів, таких як Anthropic, Meta та провідні фінансові установи.
“Ця партнерство підкреслює, що в AI навіть запеклі конкуренти можуть співпрацювати, коли обчислювальні потужності є валютою,” зазначає доктор Лена Ортіс, колишня дослідниця Google Brain і тепер консультант з AI-стратегії.
Останні події та регуляторний контекст
У квітні 2025 року Європейська Комісія запропонувала рекомендації, які вимагають від великих розробників AI підтримувати багатохмарну надмірність, щоб уникнути залежності від одного постачальника — ініціатива, яку тихо підтримують як OpenAI, так і Google. Тим часом на конференції GTC 2025 компанія NVIDIA представила суперчіп Grace Hopper, орієнтуючися на ринки високопродуктивних обчислень, але терміни постачання розтяглися до 2026 року, підкреслюючи терміновість OpenAI у диверсифікації.
Перспективи: Власні чіпи та більше
Амбіційна програма OpenAI “Vesuvius” має на меті досягти 4 ексафлопів у одному стійці дата-центру до 2026 року, використовуючи кастомізовані ядра RISC-V та новітні рішення охолодження. Якщо це вдасться, це може зменшити OPEX на 30% і зменшити залежність від зовнішніх постачальників, таких як NVIDIA та AMD.
Тим часом Microsoft та OpenAI ведуть переговори щодо часток у капіталі та майбутніх фінансових траншів, залишаючи Azure у грі, одночасно вітаючи Google Cloud як стратегічного співпостачальника.
Основні висновки
- OpenAI диверсифікує свої обчислювальні ресурси, використовуючи TPU v5 від Google Cloud, що зменшує проблеми з постачанням GPU в Azure.
- Ця угода сигналізує про нову еру багатохмарних стратегій для масштабного AI, зосереджену на цілях продуктивності ексафлопів та регуляторному тиску.
- У довгостроковій перспективі зусилля OpenAI щодо створення власних чіпів та розвиток партнерства з Microsoft змінять її структуру витрат і відносини з постачальниками.