У GOP-бюджеті – 10-річний мораторій на державне регулювання ШІ

У рамках пізньої маневри під час розгляду Бюджетної угоди у травні 2025 року республіканці в Палаті представників включили в документ положення, яке забороняє державним та місцевим органам влади приймати або впроваджувати будь-які регуляції штучного інтелекту на ціле десятиліття. Цей захід, ініційований конгресменом Бреттом Гатрі (Р-КY), є одним із найбільш масштабних зусиль федерального уряду щодо обмеження контролю за штучним інтелектом в історії США. Критики застерігають, що це не лише підриває принципи федералізму, але й стримує важливі експерименти в таких сферах, як охорона здоров’я, найм на роботу та громадська безпека, де системи штучного інтелекту все більше впливають на результати.
Передумови: Контроль за Штучним Інтелектом на Рівні Штатів
Штати США почали впроваджувати новаторські закони та пілотні програми, спрямовані на зменшення ризиків, пов’язаних зі штучним інтелектом. Ключові приклади включають:
- Законопроект Сенату Каліфорнії 318 (вступає в силу у 2024 році), який вимагає від медичних установ повідомляти, коли комунікації з пацієнтами залучають генеративні AI-чатботи, навчені на медичних даних.
- Закон “Аудит упередженості” штату Нью-Йорк 2021 року, який зобов’язує проводити незалежні аудити справедливості для автоматизованих інструментів набору персоналу, використовуючи метрики на основі демографічної паритетності та співвідношення нерівного впливу.
- Закон “Майбутнє штучного інтелекту” штату Іллінойс, який встановлює стандарти прозорості для систем прогнозуючого поліцейського нагляду, зобов’язуючи публічно звітувати про показники помилок моделей (наприклад, хибні позитиви/негативи).
Згідно з широким формулюванням нового доповнення — “жоден штат або його політичні підрозділи не можуть впроваджувати жоден закон або регуляцію, що регулює моделі штучного інтелекту, системи штучного інтелекту або автоматизовані системи ухвалення рішень протягом 10-річного періоду” — усі існуючі та заплановані закони потрапляють під заборону. Це стосується й вимоги Каліфорнії 2026 року про публічну документацію навчальних наборів даних, архітектур моделей та процедур доопрацювання.
Технічний Обсяг і Визначення
Доповнення визначає “систему штучного інтелекту” як таку, що охоплює:
- Генеративні моделі, що використовують архітектури трансформерів або дифузії (наприклад, серії GPT-X, DALL·E, Stable Diffusion).
- Автоматизовані системи ухвалення рішень, що базуються на традиційних конвеєрах машинного навчання (наприклад, кредитне оцінювання з використанням логістичної регресії або класифікаторів випадкових лісів).
- Гібридні системи на основі правил/машинного навчання, такі як експертні системи, доповнені модулями глибокого навчання для розпізнавання зображень або мови.
Поєднуючи “моделі” та “системи”, текст охоплює все — від аномальних детекторів з менше ніж 10 мільйонами параметрів до трильйонних мовних моделей, що працюють у хмарних дата-центрах. Таким чином, жодна алгоритмічна аплікація не може уникнути дії мораторію.
Юридичний Аналіз: Федералізм і Превенція
Конституційні вчені зазначають, що хоча Конгрес має чіткі повноваження відповідно до статті про торгівлю для регулювання міжштатних впливів штучного інтелекту, загальна превенція державного законодавства піднімає питання розподілу влади:
- Доктрина федеральної превенції: Судді розглядають, чи “займає федеральний закон цю сферу”, що робить неможливим паралельне застосування державних стандартів.
- Принцип анти-командування: Доповнення фактично забороняє штатам використовувати свої поліцейські повноваження для вирішення місцевих проблем, що може суперечити захисту Десятого поправки.
Професор Філіп Уоллах з Інституту Брукінгса стверджує: “Цей захід виходить за межі традиційної превенції, не лише гармонізуючи стандарти, а й нівелюючи інновації на рівні штатів. Це встановлює небезпечний прецедент для майбутнього регулювання технологій.”
Технічні Наслідки для Управління Штучним Інтелектом
Експерти попереджають, що зупинка контролю на рівні штатів ставить під загрозу пілотні програми та механізми безпеки, які слугують реальними майданчиками для тестування:
- Аудити упередженості: Незалежні оцінювачі наразі використовують статистичні тести — такі як каліброване справедливе оцінювання та зрівняння шансів — для виявлення дискримінаційної поведінки в алгоритмах найму. За умов мораторію фінансування цих аудитів може закінчитися.
- Рамки пояснюваності: Ініціативи, такі як LIME (Локальні Інтерпретовані Модельно-агностичні Пояснення) та SHAP (SHapley Додаткові Пояснення), які були прийняті кількома штатами для прозорості алгоритмів, зіштовхнуться з юридичними бар’єрами.
- Документація даних: Наближаючий Закон Каліфорнії про прозорість наборів даних, який вимагає документації моделей відповідно до стандарту IEEE P7000, буде скасовано.
Без цих захистів, розробники можуть продовжувати впроваджувати системи “чорного ящика” з непрозорою логікою ухвалення рішень, що підвищує ризики шахрайства з підробленими зображеннями, несправедливого кредитування або помилкової медичної триажу.
Перспективи Галузі та Експертів
Великі технологічні компанії та їхні лобісти святкують доповнення як “уніфікований національний стандарт”. Проте захисники прав споживачів та етики штучного інтелекту розглядають його як “подарунок індустрії”, який залишає громадян без контролю з боку алгоритмів.
- Ян Шаковскі (Д-ІЛ), провідний демократ у підкомітеті з торгівлі Палати: “Це величезний подарунок для великих технологій — штати повинні мати можливість захищати своїх громадян.”
- Сінді Кохн, виконавчий директор Фонду електронного фронту: “Місцеві органи влади повинні зберегти можливість експериментувати та впроваджувати заходи безпеки штучного інтелекту, інакше ми ризикуємо закріпити системну упередженість на великій шкалі.”
- Кейт Кравфорд, співзасновник Інституту AI Now: “Різноманітні регуляторні екосистеми забезпечують кращі результати. Десятирічний мораторій стримує зворотні зв’язки, які роблять управління ефективним.”
Порівняльний Регуляторний Ландшафт
Поки штати США стикаються з десятирічним заморожуванням, міжнародні зусилля прискорюються:
- Законодавство Європейського Союзу про штучний інтелект (попередньо погоджено у квітні 2025 року): Встановлює вимоги на основі ризику для систем з високим впливом, включаючи обов’язкові оцінки відповідності та моніторинг після виходу на ринок.
- Саміт з безпеки штучного інтелекту у Великій Британії (листопад 2024 року): Призвів до укладення хартії для добровільних зобов’язань розробників щодо прозорості та звітування про інциденти.
- Закон про штучний інтелект і дані Канади (Законопроект C-27): Вводить обов’язки для “високовпливових” систем штучного інтелекту з кримінальними санкціями за невиконання.
Запропонований федеральний мораторій у США різко відрізняється від глобальних тенденцій, які підтримують динамічний контроль та ітеративне законодавство.
Наступні Кроки та Перспективи
Доповнення має невизначені перспективи в Сенаті, де кілька поміркованих республіканців і всі демократи можуть виступити проти. Тим часом Федеральна торгова комісія оголосила про відкриття періоду громадських коментарів щодо рамок для недобросовісних або оманливих дій у сфері штучного інтелекту, що сигналізує про те, що федеральні агенції все ще продовжують працювати над безпекою штучного інтелекту паралельно. Офіційні особи Білого дому натякнули на можливість президентського вето, якщо федеральна превенція заважатиме основним споживчим захистам.
Висновок
Включення республіканцями в Палаті представників десятирічної заборони на регулювання штучного інтелекту на рівні штатів та місцевих органів у Бюджетній угоді є вирішальною битвою в політиці технологій США. Заморожуючи інновації на рівні штатів, цей захід ризикує затримати впровадження критично важливих інструментів безпеки та звузити різноманітність регуляторних експериментів. Оскільки дебати переходять до Сенату, а періоди громадських коментарів залишаються відкритими у федеральних агенціях, всі сторони активізують зусилля, щоб вплинути на підхід Америки до наступної хвилі управління штучним інтелектом.