Обережний поступ Apple у сфері ШІ на фоні зростаючої конкуренції

Вступ
На WWDC 2025 компанія Apple представила ряд скромних покращень у сфері Apple Intelligence — серед яких переклад дзвінків у реальному часі, вдосконалений візуальний пошук та нові API для розробників. Проте, компанія не продемонструвала довгоочікувану “більш персоналізовану” версію Siri. У той час, як конкуренти, такі як OpenAI, Google та Meta, активно впроваджують передові генеративні AI-технології в споживчі та корпоративні продукти, консервативний підхід Apple викликає питання щодо її здатності конкурувати в умовах швидких інновацій.
Покращення AI на WWDC 2025
Замість того, щоб представити масштабний прорив у сфері AI, Apple зосередилася на практичних, покрокових функціях, інтегрованих у iOS 26, macOS Sequoia та visionOS 2:
- Фільтрація дзвінків: Автоматично відповідає на дзвінки від невідомих абонентів, використовуючи розпізнавання мови на пристрої та транскрибуючи наміри в реальному часі. Завдяки A17 Pro Neural Engine (16 ядер, ~17 TOPS) досягається затримка транскрипції менше ніж за секунду з дотриманням принципів диференційної конфіденційності.
- Візуальний пошук 2.0: Покращує виявлення продуктів через вбудовані зображення (512-вимірні вектори), що порівнюються з локальним кешем та хмарним індексом. Apple повідомляє про 20% покращення точності в пошуку схожих об’єктів у порівнянні з минулорічною версією.
- Живий переклад: Додає підтримку 12 нових мовних пар (включаючи хінді–англійську, арабську–китайську) з середнім часом відповіді 60 мс, використовуючи гібридну модель на пристрої/в хмарі, яка динамічно розвантажує важкі обчислення в хмару на базі AWS.
AI на пристрої: апаратні та продуктивні характеристики
Наполегливість Apple щодо використання AI на пристрої базується на її планах з розробки власних чіпів. A17 Pro SoC, виготовлений за технологією 3 нм від TSMC, включає:
- 16-ядерний Neural Engine (~17 TOPS)
- 8 ГБ пам’яті класу LPDDR5 (підвищено з 6 ГБ у A16)
- Ширина смуги пам’яті 540 ГБ/с
- Удосконалений Secure Enclave для зберігання зашифрованих моделей
Чутки свідчать, що чіп A18X, який з’явиться в Vision Pro 2, зможе досягти 25 TOPS і використовуватиме 12 B-параметричну LLM, оптимізовану за допомогою квантизації (int4) та методів скорочення, щоб забезпечити час відповіді менше 100 мс. Однак розміри моделей на пристрої залишаються обмеженими в порівнянні з хмарним GPT-4 (175 B параметрів) або Google PaLM 2 (540 B), що впливає на розмір контексту та якість генерації.
Конфіденційність та безпека в AI: підхід Apple до диференційної конфіденційності
Apple продовжує відстоювати конфіденційність за замовчуванням. Весь AI-процесинг на пристрої використовує:
- Зашифровані локальні моделі: Моделі ізольовані в Secure Enclave і не можуть виводити сирі дані.
- Диференційна конфіденційність: Агреговані метрики використання підлягають додаванню шуму (ε=1.2) перед відправкою телеметрії, що зменшує ризики повторної ідентифікації.
- Навчання на пристрої: Експерименти з федеративним навчанням дозволяють налаштування моделей між пристроями без централізації даних користувачів.
Хоча ці заходи відрізняють Apple від Google та Microsoft, вони також обмежують швидкість ітерації моделей та впровадження функцій на різних пристроях.
Екосистема розробників та інтеграція AI від третіх сторін
Apple відкрила свої API для LLM на пристрої для всіх розробників, дозволяючи додаткам:
- Викликати
LLM.generate()
для виконання завдань природної мови — резюмування, створення контенту, Q&A — використовуючи вбудовану 8 B-параметричну модель або більші варіанти, що хостяться в хмарі, черезLLM.remote()
. - Інтегрувати двигун автозавершення коду OpenAI безпосередньо в Xcode, пропонуючи рекомендації в режимі реального часу через API GitHub Copilot та контекстні пропозиції Cursor.
- Вбудовувати генерацію зображень ChatGPT в Image Playground, з явною згодою користувача та шифруванням повернення даних.
Крейг Федерігі підкреслив: “Ми демократизуємо AI для розробників, при цьому ставлячи конфіденційність на перше місце.” Перші відгуки від стартапів свідчать, що AI-процесинг на пристрої може зменшити витрати на сервери на 40%, хоча й за рахунок зниження точності моделей у порівнянні з хмарними сервісами.
Порівняння з конкурентами AI-асистентами
Конкуренти зайняли більш агресивну позицію:
- GPT-4 Turbo від OpenAI: Вікно контексту 128 K токенів, 175 B параметрів, тільки хмарний інференс з затримками холодного старту 50 мс.
- Google Gemini: Сімейство з 1 трильйона параметрів, мультимодальне за замовчуванням, інтегроване в Workspace і Search.
- Meta Llama 3: Відкриті ваги (8–70 B), оптимізовані для квантизації 4 біти, підтримуються на ARM-пристроях через PyTorch та Rust.
Бенчмарки (Hugging Face Open LLM Leaderboard) показують, що модель Apple на пристрої відстає від GPT-4 у стандартних NLP-завданнях на 10–15% за показником Micro F1, проте перевершує за затримкою та показниками конфіденційності.
Перспективи експертів та майбутнє
“Відступ Apple від заголовків у сфері AI може розчарувати інвесторів, але це зберігає стабільність і довіру користувачів,” говорить доктор Ліна Чен, дослідниця етики AI в Стенфордському університеті. “Справжнє питання полягає в тому, чи зможе їхній підхід наздогнати, коли моделі стануть занадто великими для смартфонів.”
Старший аналітик Investing.com Томас Монтейро зазначив: “З падінням акцій на 1,2% після WWDC, час для Apple спливає швидше. Їм потрібно представити помітне оновлення Siri, інакше вони ризикують втратити увагу споживачів.” Тим часом внутрішні звіти вказують на відновлений акцент на “Проекті Меркурій” — вдосконаленому AI-асистенті, запланованому на 2026 рік, який може поєднувати інференс на пристрої з приватним хмарним обробленням.
Зрештою, баланс Apple між конфіденційністю, продуктивністю та практичністю може принести плоди, якщо вони вчасно запустять свої AI-інновації разом з новими поколіннями чіпів. Проте наразі Apple Intelligence залишається своєрідним брендовим зусиллям, а не трансформаційним набором AI-досвідів.