Аспірант опановує квантову інтерференцію в даних ВАК

Вступ
Великий адронний коллайдер (LHC) у CERN є найпотужнішим прискорювачем часток у світі, що щорічно генерує петабайти даних про зіткнення. Проте одним із найбільших викликів у тлумаченні цих даних є квантова інтерференція — властиве явище квантової механіки, яке викликає накладання історій взаємодії часток, що може призводити до підсилення або гасіння один одного. Звичайні статистичні методи, навіть ті, що доповнені алгоритмами машинного навчання, не здатні повністю реалізувати фізичний потенціал цих вимірювань. У 2025 році співпраця ATLAS опублікувала дві знакові статті, в яких було представлено інференцію на основі нейронного моделювання (NSBI) — структуру, засновану на глибокому навчанні, що безпосередньо оцінює відношення ймовірностей без дискретної класифікації сигналу та фону. Цей новаторський підхід, започаткований аспірантом Айшіком Гошем та його колегами, вже змінив прогнози ATLAS щодо точності вимірювання бозона Хіггса і визначить еру високої яскравості LHC (HL-LHC).
Квантова інтерференція: Основна проблема
Квантова інтерференція проявляється, коли кілька амплітуд — або “історій” — ведуть від одного початкового стану до одного кінцевого. У класичному експерименті з подвійною щілиною електрони, проходячи через дві щілини, створюють інтерференційну картину на екрані. У LHC інтерференція виникає між діаграмами Фейнмана з і без проміжного виробництва бозона Хіггса. Наприклад, коли два вхідні протони випромінюють бозон W, ці бозони можуть злитись у бозон Хіггса, який потім розпадається на два бозони Z, або безпосередньо перетворитися на бозони Z без медіатора Хіггса. Ці амплітуди взаємодіють у перетині σ, де загальна ставка визначається як
σ_total = |A_signal + A_background|² = |A_signal|² + |A_background|² + 2Re(A_signal A*_background).
Стандартні методи розбивають події на гістограми “сигналу” та “фону”, але інтерференційний член 2Re(A_signal A*_background) викликає скасування та підсилення, які ці розрізи не можуть повністю відобразити.
Від класифікації до безпосередньої інференції
Фізики ATLAS традиційно використовували контрольовані класифікатори — підсилені дерева рішень (BDT) або глибокі нейронні мережі — для розділення подій, схожих на сигнал, від подій, схожих на фон. Проте в умовах інтерференції концепція чистої “сигнальної події” зникає: розпад, що медіюється Хіггсом, може бути повністю скасований його не-Хіггсовим аналогом у певному кінематичному регіоні. Навчання класифікатора на змішаних вибірках призводить до упереджених оцінок ймовірностей і завищених невизначеностей.
Ідея Айшіка Гоша полягала в тому, щоб зовсім обійти класифікацію. Замість цього він впровадив NSBI, де нейронна мережа навчається на змодельованих наборах даних, параметризованих фізичними параметрами θ (наприклад, ширина розпаду Хіггса Γ_H). Використовуючи архітектури, засновані на нормалізуючих потоках — обертових мережах, які відображають складні розподіли в прості латентні простори — NSBI безпосередньо апроксимує відношення ймовірностей
r(x; θ₀, θ₁) = p(x|θ₀) / p(x|θ₁),
де x позначає спостережувані кінематичні змінні (інваріантна маса чотирьох лептонів, кутові розподіли тощо). Вивчаючи r(x), можна виконати інференцію на основі ймовірностей на реальних даних за допомогою таких технік, як профільна ймовірність або байєсівське вибіркове моделювання, повністю враховуючи ефекти інтерференції.
Технічна реалізація та обчислювальна інфраструктура
Робочий процес NSBI використовує найсучасніші обчислювальні ресурси на Всесвітній обчислювальній сітці LHC (WLCG) та партнерствах CERN OpenLab. Ключові технічні характеристики включають:
- Кластери навчання з графічними процесорами NVIDIA A100, організовані за допомогою Kubernetes і Kubeflow Pipelines.
- Моделі нормалізуючих потоків (наприклад, Masked Autoregressive Flows), реалізовані в TensorFlow 2.12, оптимізовані з використанням змішаної точності AMP.
- Сканування параметрів по Γ_H ∈ [1, 10] MeV та аномальні коефіцієнти зв’язку за допомогою розподілених робіт OpenMPI.
- CI/CD через GitLab runners та автоматизовані валідаційні набори для забезпечення статистичної надійності (включаючи тести toy MC, дослідження покриття та стрес-тести в рідкісних кутах фазового простору).
Під час розробки команда обробила понад 108 подій паралельно, досягнувши навчання моделі від початку до кінця менш ніж за 48 годин — в три рази швидше, ніж ранні реалізації без графічних процесорів.
Перевірка та валідація даних Run 2
У грудні 2025 року ATLAS опублікував дві супутні статті. Перша детально описувала методологію NSBI, надаючи теоретичні докази асимптотичної збіжності та калібрування невизначеностей за допомогою нижньої межі доказу (ELBO). Друга стаття представила повний переаналіз каналу чотирьох лептонів Run 2 (H → ZZ* → 4ℓ), порівнюючи NSBI з традиційним підходом на основі BDT. Ключові результати включали:
- Зменшення статистичної невизначеності на Γ_H на 30%.
- Поліпшення чутливості до потенційних аномальних зв’язків Хіггса на 20%.
- Стійка продуктивність у кінематичних регіонах, які раніше вважалися неможливими через руйнівну інтерференцію.
Внутрішні рецензійні комісії, до складу яких входили експерти з калібрування детекторів, статистичних методів та теоретичного моделювання, підтвердили ці результати, проклавши шлях для включення NSBI в майбутні аналітичні рамки ATLAS.
Думки експертів
“Перехід від класифікації до безпосередньої оцінки ймовірності — це зміна парадигми,” — сказав Даніель Уайтсон (UC Irvine). “Це як відкрити повну квантову тканину цих подій.”
“Ми завжди знали, що інтерференція містить приховану інформацію,” — зазначив Девід Руссо (IJCLab). “NSBI нарешті дозволяє нам витягувати її чисто.”
Майбутні наслідки для високояскравого LHC
Дивлячись у майбутнє, до оновлення HL-LHC (яке, як очікується, розпочне фізичні дослідження у 2028 році з миттєвою яскравістю до 7.5×1034 см⁻²с⁻¹), NSBI стане центральним елементом фізичної програми ATLAS, включаючи:
- Точні вимірювання рідкісних процесів, наприклад, виробництво пар Хіггса (HH → 4b, 2b2γ).
- Пошуки ефектів за межами стандартної моделі у розсіянні векторних бозонів та порталах темної сектора.
- Робочі процеси в реальному часі, інтегровані в систему тригера з використанням FPGA-ускорених нормалізуючих потоків.
ATLAS вже розпочав оновлення свого обробного ферму Tier-0, щоб включити вузли з графічними процесорами, забезпечуючи можливість впровадження NSBI як на записаних, так і на потокових даних.
Порівняння з традиційними статистичними методами
Хоча профільні ймовірнісні сканування та байєсівські MCMC були основними в аналізі даних LHC, вони покладаються на ручні оцінки щільності ймовірності або біновані гістограми, які не можуть відобразити інтерференцію на підбіновому рівні. Диференційовані оцінювачі ймовірностей NSBI замінюють оцінки ядерної щільності та гаусівські апроксимації, надаючи:
- Безперервні, незміщені поверхні ймовірностей у високорозмірних фазових просторах.
- Автоматичну кваліфікацію невизначеностей за допомогою ансамблевих мереж та калібрувальних метрик (наприклад, гістограми PIT).
- Масштабованість до десяти або більше фізичних параметрів, що є критично важливим для підгонки EFT (ефективної поля теорії).
Висновок
Шестирічна подорож Айшіка Гоша, підтримувана IJCLab, UC Irvine та глобальною командою ATLAS, продемонструвала, як передові технології штучного інтелекту можуть вирішити давні квантові виклики в фізиці колайдерів. Інтегруючи NSBI в свій основний аналітичний процес, ATLAS готовий переосмислити точність в епоху HL-LHC, відкриваючи нові відкриття на перетині квантової механіки, машинного навчання та високопродуктивних обчислень.