Літня школа з гуманно орієнтованого ШІ 2025 у Празі
Запрошуємо вас на п’яту Літню школу з людської орієнтації в AI, що відбудеться з 22го по 25те липня 2025 року, де ви зможете ознайомитися з передовими дослідженнями в галузі налаштування штучного інтелекту.
Протягом чотирьох насичених днів учасники матимуть можливість відвідати пленарні засідання, технічні лекції, практичні майстер-класи та панельні дискусії, що сприятимуть глибшому розумінню безпеки AI, стратегій зменшення ризиків та теоретичних основ систем, що узгоджуються з людськими цінностями.
Подайте заявку вже зараз; заявки розглядаються на постійній основі для швидкого отримання зворотного зв’язку.
Чого очікувати
Літня школа акцентує увагу на надійних педагогічних методах, а не на поверхневих оглядах останніх публікацій. Учасники повинні мати базові знання з основ машинного навчання (наприклад, трансформери, робочі процеси RLHF, цілі оптимізації) та основні концепції теоретичної комп’ютерної науки.
Цього року програма структурована навколо трьох основних напрямів:
- Дослідження технічної узгодженості: Глибокі сесії з механістичної інтерпретації (аналіз схем за допомогою таких інструментів, як EIGEN та бібліотеки візуалізації на базі PyTorch), масштабованих технік нагляду (синтетичні модельні організми, протоколи зворотного навчання) та поведінкових оцінок з використанням бенчмарків, таких як BIG-bench та AdvGLUE. Обговорюватимуться останні результати зворотного інженерії голів трансформерів та дослідження шарів MLP.
- Стратегія AI та системна узгодженість: Аналітичні лекції про прогнозування термінів розвитку AI за допомогою кількісних моделей (наприклад, дискретний логістичний ріст, закони масштабування), економічні моделювання ринків, що керуються AI, та управлінські структури, натхненні міжнародними політичними пропозиціями. Панелі включатимуть дебати про координацію багатьох учасників та ризики поступового зменшення можливостей в економіці після AGI.
- Основи: Дослідження протоколів співпраці між агентами, моделі обмеженої раціональності з використанням алгоритмів задоволення, формальні визначення агентства з теорії прийняття рішень та виникаючі поведінки в навчанні на основі популяцій. Ці секції спираються на останні дослідження з багатостороннього навчання з підкріпленням (MARL) та співпраці AI від Фонду співпрацюючого AI.
Глибоке занурення: Техніки механістичної інтерпретації
Ведучі експерти проведуть учасників через експерименти з інтерпретації на рівні коду. Використовуючи бібліотеки, такі як Captum та TransformerLens, учасники реконструюватимуть семантичні нейрони, застосовуватимуть методи атрибуції, такі як інтегровані градієнти, та проводитимуть активаційне патчування. У кейс-стаді будуть представлені останні результати з білих паперів про внутрішні представлення цілей GPT-4.
Панельні обговорення: Управління, політика та економічні моделі
Модероване обговорення з участю доктора Яна Лейке (DeepMind), доктора Стюарта Рассела (UC Berkeley) та практиків галузі розгляне останні пропозиції з управління AI, включаючи AI Act ЄС та виконавчі укази США. Обговорення охоплюватиме практики аудиту AI, що підлягають виконанню, гармонізацію регулювання між країнами та роль відкритого коду в забезпеченні безпеки.
Практичні майстер-класи: Інструменти, бібліотеки та структури
Інтерактивні сесії навчать практичним навичкам: створення прозорих конвеєрів RLHF з використанням Ray RLlib, впровадження планів безпеки через OpenAI Safety Gym та інтеграцію панелей оцінки моделей за допомогою Weights & Biases. Учасники працюватимуть над міні-проектами, що стосуються стійкості до атак та виявлення маніпуляцій з винагородами.
Формат програми
Кожен день включає пленарні лекції, малі групові майстер-класи, експертні панелі та обіди для нетворкінгу. Детальний розклад буде опубліковано ближче до події — дивіться програму 2022 року для довідки.
Доповідачі
- Льюїс Хаммонд – Фонд співпрацюючого AI та Оксфордський університет
- Еван Хабінгер (дистанційно) – Дослідження Anthropic
- Войта Коварік – Чеський технічний університет
- Ян Кулвейт – Дослідження ACS, Карлів університет
- Гевін Ліч – Кембриджський університет та Arb Research
Додаткові доповідачі та учасники панелей будуть підтверджені; слідкуйте за оновленнями на вебсайті.
Нетворкінг та колабораційна інкубація
Структуровані заходи для нетворкінгу та брейнштормінг-сесії у стилі хакатонів сприятимуть міжінституційній співпраці. Учасники можуть презентувати дослідницькі ідеї, формувати робочі групи та отримувати менторство від старших науковців, які прагнуть прискорити розвиток безпечного AI.
Логістика та реєстрація
Подія відбудеться на історичному кампусі Чеського технічного університету в Празі. Доступні варіанти грантів на подорож та субсидованого проживання для аспірантів та молодих дослідників. Реєстраційні внески включають повний доступ до майстер-класів, навчальних матеріалів та відеозаписів після заходу.
Подайте заявку, поки залишилися місця — заявки оцінюються за порядком надходження.
Джерело: AI Alignment Forum