Кодекс прозорості штучного інтелекту ЄС: що не сподобається технологічним гігантам

Європейська комісія опублікувала добровільний кодекс практики в рамках знакового закону ЄС про штучний інтелект, який вимагатиме безпрецедентної прозорості від постачальників загального призначення штучного інтелекту. Цей кодекс спочатку буде застосовуватися до найбільших виробників AI з 2 серпня, з формальним введенням в дію, запланованим на серпень 2026 року.
Основні положення та графік
Кодекс охоплює три основні сфери: захист авторських прав, прозорість даних і моделей, а також моніторинг безпеки для громадськості. Компанії, які дотримуються цього кодексу, можуть розраховувати на зменшення адміністративного навантаження та більшу юридичну ясність. Ті, хто відмовиться від нього, зіткнуться з більш складними шляхами дотримання, які можуть включати витратні аудити та детальне підтвердження відповідності закону про AI.
Авторські права та управління навчальними даними
Одним із найсуперечливіших моментів є заборона на використання об’єктів авторського права для навчальних даних. Компанії, що займаються AI, повинні призначити спеціальних офіцерів з дотримання прав, впровадити механізми для подання скарг та виконувати запити на відмову в строго визначені терміни. Це безпосередньо стосується практик, таких як несанкціоноване збирання електронних книг та використання торрент-даних.
- Відстеження походження даних через захищені реєстри метаданих
- Стандартизована схема для категорій наборів даних, включаючи суспільне надбання, ліцензовані, третіх осіб, користувацькі та синтетичні
- Інтеграція з API правовласників для реального часу з можливістю відмови від контенту
Прозорість моделей та розкриття дизайну
Постачальники повинні публікувати детальні картки моделей, що пояснюють вибір архітектури, етапи навчання, налаштування гіперпараметрів та обсяги обчислень. Відкриття повинні вказувати на пропорцію навчальних токенів з різних типів корпусу. Це має на меті прояснити баланс між суспільним надбанням та приватними наборами даних, а також даними, наданими користувачами.
Картки моделей повинні дозволити незалежним аудиторам відтворювати бенчмарки продуктивності та перевіряти відповідність стандартам якості та безпеки. Експерт з Європейського наглядового органу з захисту даних
Покращена безпека та звітування про інциденти
Кодекс вводить суворі рамки моніторингу безпеки. Організації повинні виявляти та повідомляти про серйозні інциденти протягом п’яти днів з моменту їх виявлення. До серйозних інцидентів відносяться порушення кібербезпеки, збої в інфраструктурі, значні шкоди для здоров’я та будь-які випадки смертельного результату, пов’язані з AI.
- Безперервне агрегування журналів у системах управління інформацією та подіями безпеки
- Впровадження алгоритмів виявлення аномалій у процесах інференції
- Проактивне тестування на вразливість за допомогою автоматизованих команд червоного тестування
- Періодичні тести на проникнення та аудити безпеки третіми сторонами
Споживання енергії та вплив на навколишнє середовище
Прозорість також стосується загального споживання енергії, яке охоплює як етапи навчання, так і інференції. Постачальники повинні вимірювати та звітувати про кВт·год на один цикл навчання, а також на мільйон оброблених токенів. Це відповідає ініціативам Green AI та підтримує Комісію в моніторингу вуглецевого сліду великих масштабів впровадження AI.
Глибокий технічний аналіз походження даних
Точне відстеження походження даних вимагає незмінних рішень для ведення журналів, таких як технології розподілених реєстрів або криптографічний ланцюг хешів. Кожна партія даних, що надходить до навчальних процесів, повинна отримувати унікальні ідентифікатори для підтвердження походження та прав на використання. Організації можуть використовувати інструменти з відкритим кодом, такі як DataLad або MLflow, для версійності та управління наборами даних.
Глобальні регуляторні наслідки
Кодекс ЄС встановлює прецедент, який, ймовірно, вплине на регуляції в США та Азії. Каліфорнія та Федеральна торговельна комісія висловили зацікавленість у подібних вимогах до прозорості, тоді як Китай представив проект правил щодо алгоритмічного управління. Багатонаціональні постачальники AI повинні будуть розробити уніфіковані механізми дотримання для задоволення різноманітних глобальних вимог.
Виклики для індустрії та думки експертів
Впровадження цих правил створює значні технічні та операційні виклики. Основні завдання включають розробку масштабованих систем для маркування метаданих та інтеграцію робочих процесів управління правами в реальному часі. За словами дослідниці етики AI д-ра Мони Слоун, кодекс може прискорити впровадження технологій, що забезпечують конфіденційність, але також може створити труднощі для менших стартапів у сфері AI, які не мають великих юридичних команд.
Заходи примусу відповідно до закону про AI можуть включати відкликання моделей, заборони на ринку та штрафи до семи відсотків від глобального річного обороту. Оскільки кодекс чекає на остаточне затвердження від держав-членів, його добровільна природа не приховує тиску на галузь для широкого впровадження перед обов’язковим дотриманням у 2026 році.
З наближенням терміну, постачальники AI по всьому світу намагаються створити інфраструктуру дотримання, необхідну для виконання суворих вимог ЄС щодо прозорості та безпеки, зберігаючи при цьому швидкість інновацій.