OpenAI повертає контроль до неприбуткової ради, скасовуючи розподіл прибутків
Огляд рішення
У понеділок, 5 травня 2025 року, OpenAI опублікувала офіційний блог, в якому підтвердила, що залишиться під управлінням свого засновницького правління неприбуткової організації 501(c)(3), а не відокремлюватиме свій комерційний підрозділ в незалежну прибуткову компанію. Генеральний директор Сем Альтман зазначив: «Після тривалих консультацій з громадськими лідерами та обговорень з офісами генеральних прокурорів Каліфорнії та Делавера, ми вирішили, що неприбуткове правління продовжить утримувати остаточний контроль». Це рішення стало різким поворотом від раніше обговорюваної пропозиції, яка була представлена минулого вересня.
Попередні пропозиції щодо реструктуризації та моделі управління
Початкова структура OpenAI поєднувала неприбуткову організацію, яка контролює дочірню компанію з обмеженим прибутком (LLC). У рамках цієї моделі прибутки інвесторів були юридично обмежені до 100 разів від їхніх інвестицій. Пропозиція, що надійшла в грудні, передбачала заміну LLC на публічну благодійну корпорацію (PBC) у Делавері, що призвело б до розмивання голосових прав неприбуткової організації до міноритарної частки. Основні відмінності:
- Поточна модель (501(c)(3) + LLC з обмеженим прибутком): Неприбуткове правління зберігає право вето, обмежені можливості для інвесторів.
- Запропонована модель PBC: Неприбуткова організація має акції без права голосу; інвестори отримують стандартні акції з необмеженими прибутками.
- Переглянутий підхід: Неприбуткова організація залишається головною у стратегічних рішеннях; прибутковий підрозділ спрощується до PBC з акціями з правом голосу для працівників та постачальників капіталу.
З юридичної точки зору, Delaware PBC відповідно до глави 8 вимагає, щоб директори збалансовували цінність для акціонерів із місією суспільної користі, але критики стверджували, що ця структура забезпечує слабший контроль у порівнянні з правлінням 501(c)(3).
Динаміка фінансування та умови для інвесторів
Раунд фінансування OpenAI в березні завершився вражаючими 40 мільярдами доларів, з яких 30 мільярдів доларів були зобов’язанням SoftBank (зменшеним до 20 мільярдів, якщо компанія не перетвориться на повністю прибуткову організацію до кінця 2025 року). Microsoft також пообіцяла до 10 мільярдів доларів у вигляді готівки та зобов’язань на обчислювальні ресурси Azure — що еквівалентно тисячам екземплярів GPU Nvidia H100 на рік. В рамках переглянутого плану OpenAI повинна враховувати тригери SoftBank, зберігаючи при цьому свої цілі щодо обчислювальної потужності та оцінки, які досягли піку близько 300 мільярдів доларів у пізніх вторинних торгах.
Аналіз технічного та етичного контролю
Збереження неприбуткового управління має пряму значимість для узгодженості та протоколів безпеки OpenAI. Неприбуткове правління контролює:
- Тестування на стійкість до атак та ред-тимінг, включаючи автоматизоване тестування на моделях GPT-4 Turbo та GPT-4o.
- Раду з безпеки та захисту OpenAI, до складу якої входять зовнішні експерти з диференційної приватності, федеративного навчання та стійкості до отруєння даних.
- Етичні обмеження — такі як обмеження швидкості, фільтри контенту та аудити використання API — перед тим, як будь-яка модель може бути впроваджена на високонавантажені публічні платформи.
«Неприбутковий контроль гарантує, що статут команди узгодженості залишається юридично обов’язковим», — зазначила доктор Джейн Доу, дослідниця в галузі управління штучним інтелектом у Стенфордському університеті.
Думки експертів: юридичні та галузеві перспективи
Колишній член правління Ілон Маск має активний позов, в якому стверджує про порушення неявного контракту та несправедливе збагачення, і нещодавно суддя в Делавері дозволив основним вимогам продовжити розгляд. Однак OpenAI успішно захистилася від звинувачень, що Маска ввели в оману публічні заяви, які він сам допомагав формулювати.
«Компроміс в управлінні є позитивним результатом», — сказала Мері Шен О’Керролл, колишня керівниця етики та суспільства в Google. «Це балансує інтереси інвесторів з важливим контролем суспільних інтересів у час, коли базові моделі є технологіями з високими ризиками та високими вигодами».
Перспективи: ризики та можливості
Модель управління OpenAI буде перевірена в рамках Закону ЄС про штучний інтелект, який класифікує базові моделі як «високі ризики» з вимогою детальних оцінок ризиків та моніторингу після виходу на ринок. Тим часом, законодавці США просувають Національний закон про ініціативу в галузі штучного інтелекту для встановлення федеральних настанов щодо безпеки штучного інтелекту.
Конкуренти, такі як Google DeepMind, Anthropic та Cohere, змагаються за впровадження моделей наступного покоління на екзаскалярних суперкомп’ютерах. Тепер OpenAI повинна забезпечити, щоб її закупівля обчислювальних ресурсів — від спеціальних кластерів NVLink до потенційних ферм GPU класу NVIDIA Blackwell — відповідала як очікуванням інвесторів, так і її місії суспільної користі.
Висновок
Зберігаючи контроль неприбуткової організації, OpenAI сигналізує про відновлення прихильності до своєї засновницької етики безпечного та корисного AI. Проте фінансова та операційна стратегія компанії залишається складною: необхідно узгодити агресивні цілі з суворим контролем і задовольнити основних інвесторів, попри триваючі судові розгляди та змінюючийся регуляторний ландшафт.