Суд підтримав справу про неправомірну смерть проти Meta та TikTok
Автор: Ешлі Беланжер – Оновлено 15 липня 2025 року
Огляд
14 липня 2025 року суддя Верховного суду штату Нью-Йорк Пол Гоетц відхилив клопотання компаній Meta Platforms і ByteDance, власника TikTok, про відхилення позову про неправомірну смерть, поданого Нормою Назеріо, матір’ю 17-річного Закеррі, який загинув під час спроби виконати трюк “субвей-серфінг”. Це рішення відкриває можливість для вивчення того, як алгоритми рекомендацій могли активно пропонувати небезпечний контент неповнолітньому, що може стати новим юридичним прецедентом у питанні відповідальності за алгоритми.
Передумови справи
Закеррі Назеріо відкрив двері рухомого потяга, заліз на дах метро і дивився на свою дівчину, коли вдарився головою об балку Бруклінського мосту. Він впав між вагонами і отримав смертельні травми. Його мати стверджує, що фатальний трюк був натхненний десятками подібних відео, які він побачив через рекомендовані публікації в Instagram, Facebook (Meta) та TikTok.
Основні юридичні претензії
- Імунітет за розділом 230: Відповідачі стверджували, що розділ 230 Закону про пристойність в комунікаціях захищає їх від відповідальності. Суддя Гоетц виявив, що ця претензія має право на існування, оскільки Назеріо стверджує, що платформи перевищили межі “пасивного хостингу”, активно виявляючи неповнолітніх користувачів, які піддаються ризику.
- Перша поправка: Відповідачі заявили, що алгоритмічні рекомендації є захищеним висловлюванням. Суд відхилив широке звільнення від відповідальності для алгоритмічної куртації, коли є достатні докази навмисного націлювання на неповнолітніх.
- Недбалість та обов’язок піклування: У позові стверджується, що обидві компанії розробили “аддиктивні та небезпечні” функції без належних попереджень, порушуючи обов’язок захищати неповнолітніх користувачів від шкоди.
Технічний аналіз алгоритмів рекомендацій
Сучасні соціальні медіа платформи використовують багатоступеневі системи рекомендацій, що поєднують:
- Збір даних: Потокове оброблення подій в реальному часі (наприклад, вподобання, репости, час перегляду) через Apache Kafka або подібні системи.
- Обробка ознак: Витягування поведінкових ознак — тривалість сесії, глибина взаємодії, швидкість залучення — оброблених через кластери Spark або Flink.
- Інференція моделі: Використання моделей глибокого навчання (наприклад, архітектури на основі трансформерів), які обслуговуються через TensorFlow Serving або PyTorch TorchServe.
- Рейтинг та персоналізація: Деревоподібні рішення з градієнтним підсиленням або модулі навчання з підкріпленням ранжують кандидатів на відео, оптимізуючи їх для “часу перебування” та “ймовірності репосту”.
Експерти оцінюють, що ці системи можуть пропонувати новий контент протягом 200–300 мілісекунд після кожної дії користувача, залишаючи мало місця для людського контролю над потенційно небезпечними рекомендаціями.
Додатковий контекст: Регуляторні та галузеві новини
Після ухвали суду законодавці США відновили обговорення законопроектів про прозорість алгоритмів. Закон про безпеку дітей в Інтернеті (COSA) був повторно представлений у червні 2025 року, вимагаючи від платформ надання регуляторам журналів рішень рекомендацій, які впливають на неповнолітніх. Федеральна торгова комісія також сигналізувала про майбутні рекомендації щодо модерації контенту на основі штучного інтелекту та рекомендацій відповідно до розділу 5 Закону FTC.
Юридичні прецеденти та порівняльні юрисдикції
“Ця справа перевіряє межі розділу 230 в епоху непрозорої персоналізації на основі штучного інтелекту,” говорить професор Дана Маккензі з юридичного факультету Нью-Йоркського університету. “Якщо в процесі розслідування з’ясується, що ці компанії точно знали, який контент найбільше залучить підлітків, вони можуть зіткнутися з суттєвою відповідальністю за передбачувану шкоду.”
В Європейському Союзі запропонований Закон про цифрові послуги (DSA) вже вимагає оцінок ризиків для алгоритмічних систем. Платформи тепер повинні звітувати про кількість неповнолітніх, які піддаються впливу контенту з високим ризиком, що може вплинути на суди США з вимогою подібних розкриттів.
Можливі наслідки для дизайну платформ
- Алгоритмічні аудити: Компанії можуть впроваджувати сторонні аудити моделей машинного навчання, щоб переконатися, що вони не підсилюють високі ризики для неповнолітніх користувачів.
- Фільтрація за віком: Поліпшена перевірка віку та багатоступеневі системи рекомендацій, які обмежують або видаляють контент “викликів” для зареєстрованих неповнолітніх.
- Своєчасне зменшення ризиків: Інтеграція реального часу для виявлення аномалій (наприклад, через AWS Rekognition або Google Cloud AI) для позначення та зниження рейтингу потенційно небезпечних відео.
Наступні кроки в судовому процесі
Суд надав команді Назеріо право на видачу повісток і вимогу внутрішніх даних про те, як оцінювався ризик профілю Закеррі. Meta та ByteDance тепер повинні надати:
- Журнали навчання моделі та ваги ознак для контенту “викликів”.
- Агреговану статистику рекомендацій за віковими сегментами.
- Внутрішні меморандуми, що обговорюють метрики зростання для трендових викликів.
Розслідування покаже, чи платформи просто надавали нейтральну послугу, чи вдавалися до деліктної поведінки, “зброяючи” алгоритми рекомендацій проти вразливих користувачів.
Висновок
Ухвала судді Гоетца підкреслює зростаючу увагу судової системи до персоналізації на основі штучного інтелекту в соціальних мережах. У міру розвитку справи вона може прокласти новий шлях у питанні відповідальності платформ, прозорості алгоритмів та юридичних меж імунітету за розділом 230.