Студент під керівництвом Маска перетворює AI у HUD з DOGE

Вступ
Унікальний крок, що поєднує інновації штучного інтелекту в приватному секторі та федеральне регулювання, був здійснений Міністерством ефективності уряду (DOGE) на чолі з Ілоном Маском. Вони залучили 20-річного студента третього курсу Чиказького університету, Кристофера Світа, до роботи в Міністерстві житлового будівництва та міського розвитку США (HUD). Його завдання полягає у використанні сучасного машинного навчання для аудиту, перегляду та, можливо, скасування сотень регуляцій HUD, що підкреслює як перспективи, так і ризики “масштабної дерегуляції”.
Огляд програми
Крістофер приєднався до HUD на початку квітня 2025 року, зайнявши посаду “спеціального помічника” команди DOGE. Незважаючи на відсутність формального досвіду роботи в уряді, йому надано доступ до інформаційних систем HUD, зокрема Центру інформації про житло для публіки та індійців (PIHIC) та системи верифікації доходів. Його місія: використовувати штучний інтелект для порівняння існуючих регуляцій з законодавчими нормами, виявляти “перевищення повноважень” та пропонувати спрощені формулювання замін.
- Джерела даних: база даних PIHIC, інтерфейс верифікації доходів (EIV), корпус електронного кодексу федеральних регуляцій (eCFR).
- Результати: таблиці з ~1,200 виділеними регуляторними положеннями, кількісні оцінки відповідності та пропозиції щодо переробки, згенеровані штучним інтелектом.
- Процес роботи: експерти з предметної області HUD переглядають, анотують та або приймають, або оскаржують рекомендації AI; остаточні версії документів направляються до Офісу генерального counsel HUD.
Технічні основи AI-моделі
Штучний інтелект, що лежить в основі проекту Світа, є вдосконаленою великою мовною моделлю (LLM), створеною на основі відкритої архітектури Transformer з приблизно 20–30 мільярдами параметрів. Основні технічні характеристики включають:
- Корпус для попереднього навчання: повний текст електронного кодексу федеральних регуляцій (eCFR), архіви Федерального реєстру та порівняльні державні статути.
- Тонка настройка: контрольоване навчання за допомогою кураторського набору даних з 10,000 анотованих пар регуляція-статут, щоб навчити модель юридичному узгодженню та спрощенню політики.
- Проектування запитів: динамічні шаблони, що витягують контекстуальні вікна до 8,192 токенів, що дозволяє здійснювати перехресне посилання між законодавчими вимогами та текстом існуючих правил в одному запиті.
- Оцінювальні метрики: бали BLEU та ROUGE для текстової точності, а також спеціально розроблені “коефіцієнти відповідності регуляціям”, які отримані з правилового парсера, що рахує умовні положення та обов’язкові мовні конструкції.
Юридичні та процедурні наслідки
Відповідно до Закону про адміністративні процедури (APA), федеральні агенції зобов’язані проходити багатоступеневі періоди повідомлення та коментарів, а також обґрунтовувати всі значні зміни в правилах. Критики стверджують, що використання AI для попереднього складання регуляторного тексту може обійти важливі механізми зворотного зв’язку з громадськістю. Юридичні експерти попереджають про кілька можливих ризиків:
- Відсутність прозорості: логіка прийняття рішень AI може бути непрозорою, що ускладнює судовий перегляд.
- Дійсність правил: суди можуть скасувати регуляції, якщо обґрунтування на основі AI не супроводжуються адекватним людським обговоренням.
- Управління даними: інтеграція результатів AI в офіційні повідомлення Федерального реєстру вимагає суворої документації ланцюга зберігання.
Ризики безпеки та конфіденційності
Надання системам AI доступу до чутливих баз даних HUD викликає занепокоєння щодо кібербезпеки та конфіденційності. Урядові чиновники та зовнішні аудитори вказали на такі ризики:
- Хмарна інфраструктура: AI працює в гібридному хмарному середовищі з використанням AWS GovCloud, що вимагає авторизації FedRAMP Moderate. Неправильні налаштування можуть призвести до витоку особистої інформації мешканців соціального житла.
- Контроль доступу: контроль доступу на основі ролей (RBAC) повинен бути строго дотриманий. Неверифіковані запити AI можуть ненавмисно запитувати конфіденційні справи.
- Зміна моделі: постійне перенавчання на реальних даних може ввести упередження або зміни, що потребує регулярних оцінок на основі захищеного набору валідації.
Думки експертів
Доктор Аніта Рао, дослідниця регуляцій у Джорджтаунському університеті, зазначає: “Штучний інтелект може прискорити процеси перегляду проектів, але справжня регуляторна мудрість виникає з залучення зацікавлених сторін та аналізу впливу — елементів, які жоден алгоритм не може повністю відтворити.” Тим часом спеціаліст з кібербезпеки Маркус Чен з Центру кібербезпеки попереджає: “Впровадження неперевірених AI-пайплайнів в критично важливі системи без ретельного тестування на проникнення суперечить федеральним практикам безпеки.”
Ширший контекст та подальші кроки
Робота Світа є частиною проекту 2025, розробленого в епоху Трампа, який тепер реалізують багато колишніх чиновників у різних агенціях для скорочення регуляцій у таких сферах, як охорона навколишнього середовища, нагляд за FDA та ініціативи з різноманітності. Згідно з недавніми вказівками Офісу управління та бюджету (OMB), агенції тепер зобов’язані включати заяви про вплив AI у всі пакети дерегуляторного законодавства.
У найближчі тижні співробітники HUD завершать проект регуляцій PIH з використанням AI, подадуть його до Генерального Counsel та підготують до громадського обговорення. Одночасно вдосконалена модель AI планується до впровадження в Міністерствах освіти та енергетики пізніше цього року.
Висновок
Інтеграція штучного інтелекту в федеральні регуляторні процеси є знаковим моментом у публічному управлінні. Однак це також викликає термінові питання щодо прозорості, підзвітності та збереження демократичних гарантій. Поки Кристофер Світ очолює цей високопрофільний експеримент у HUD, політики та технологи уважно стежитимуть, чи зможе дерегуляція, керована AI, зберегти як ефективність, так і легітимність у процесі створення правил.