Перегляд звітів поліції з AI: питання відповідальності у проєкті Axon
10 липня 2025 року Фонд електронного фронту (EFF) оприлюднив детальне розслідування, яке виявило, як інструмент Draft One компанії Axon — система, що використовує штучний інтелект для створення поліцейських звітів на основі аудіо з камер, що носять на тілі — систематично знищує докази власної участі. За своєю суттю, цей інструмент видаляє проміжні чернетки та приховує, які частини наративу були написані штучним інтелектом, що викликає серйозні занепокоєння щодо прозорості, підзвітності та цілісності кримінального правосуддя.
Основні висновки EFF
Непрозорість версій та журналів аудиту
Згідно з доповіддю EFF, Draft One не зберігає жодних записів про початкові чернетки, створені штучним інтелектом. На відміну від звичайних систем версій, які зберігають зміни або знімки, рішення Axon постійно видаляє проміжні звіти. Це означає, що ні керівники, ні адвокати, ні органи контролю не можуть відновити еволюцію звіту, щоб визначити, які слова належать людині, а які були синтезовані штучним інтелектом.
Ризик неправильного тлумачення та упередженості
Оскільки Draft One використовує спеціалізований варіант ChatGPT для розпізнавання сленгу, акцентів або швидкого діалогу, це може призвести до неточностей — наприклад, до неправильного сприйняття ключових термінів або до висновків про події, які ніколи не відбувалися. EFF попереджає, що поліцейські можуть підписувати ці чернетки, щоб заощадити час, фактично передаючи контроль над наративом штучному інтелекту, який не має вбудованих механізмів для виправлення помилок, окрім ручних редагувань.
Технічна архітектура та деталі журналювання
Процес Draft One починається з модуля розпізнавання мови (на основі моделі глибокого навчання, подібної до DeepSpeech v0.9), який транскрибує аудіо з камер у текст. Цей транскрипт передається через TLS 1.3 на сервер Axon, де велика мовна модель (LLM), налаштована на основі моделі з 175 мільярдами параметрів, генерує початковий наратив. Хоча всі API-запити створюють унікальні ідентифікатори запитів і записують журнали у форматі JSON в контейнер AWS S3 з шифруванням на стороні сервера (AES-256), користувачі бачать лише фінальні наративи. Проміжні чернетки автоматично видаляються, а версійність S3 за замовчуванням вимкнена, що ускладнює проведення судово-технічних експертиз.
Виклики в аудиті та відповідності
Згідно з нормами, такими як CJIS та ISO 27001, установи повинні зберігати незмінні журнали та версійовані записи. На противагу цьому, підхід Axon до видалення чернеток суперечить найкращим практикам контролю версій програмного забезпечення (наприклад, Git) та систем управління документами (DMS). Один з архітекторів безпеки, опитаний Ars, зауважив:
“Без повного журналу аудиту ви не можете провести диференційний аналіз або повернутися назад, щоб побачити, які зміни були внесені на кожному етапі.”
Експорт метрик використання вимагає створення спеціальних скриптів або виснажливого ручного перегляду окремих журналів користувачів — операції, яка може значно ускладнити судово-технічну експертизу.
Юридичні та етичні аспекти
Згідно зі стандартом Daubert, свідчення експертів та документальні докази повинні бути надійними та відтворюваними. Професор Джейн Доу з Гарвардської школи права попереджає:
“Тягар доведення помилок, що виникли через штучний інтелект, лягає на адвокатів захисту, але без журналів це стає майже неможливим завданням.”
Крім того, ланцюг зберігання цифрових доказів стає неясним, коли редагування штучним інтелектом неможливо відстежити, що може підірвати право на справедливий суд і знизити довіру суспільства.
Рекомендації щодо політики та майбутні перспективи
- Запровадити детальну версійність: Вимагати зберігання кожної чернетки, створеної штучним інтелектом, у незмінному сховищі даних.
- Уможливити експорт журналів аудиту: Надати можливість експорту метрик використання та історії змін у форматах CSV/JSON.
- Вимагати атрибуції штучного інтелекту: Включити метадані та застереження, що підкреслюють частини, написані штучним інтелектом.
Запропонований законопроект SB 345 у Каліфорнії зобов’яже установи зберігати чернетки та розкривати використання штучного інтелекту, тоді як проект регуляції в Юті має подібний, але вужчий підхід. Якщо ці заходи будуть прийняті, вони можуть стати національним прецедентом для прозорості в поліцейській діяльності за допомогою штучного інтелекту.
Відповідь індустрії та останні події
У вересні 2025 року Axon оголосила про можливість налаштування версій, що дозволяє установам визначати терміни зберігання проміжних чернеток. Одночасно Міністерство юстиції США оцінює пілотні програми, які інтегрують прозорі аудиторські рамки для LLM, щоб забезпечити відповідність законам про свободу інформації та правилам доказів.
Висновок
Оскільки системи штучного інтелекту, такі як Draft One, стають все більш поширеними в правоохоронних органах, важливо забезпечити надійні технічні заходи безпеки, прозорі механізми аудиту та чіткі юридичні стандарти для захисту громадянських свобод і підтримки довіри суспільства до системи правосуддя.