Критика безпеки автопілота Tesla на суді у справі про ненавмисне вбивство

Передумови справи та деталі аварії
У липні 2025 року в Судовому комплексі Уілкі Д. Фергюсона-молодшого у Маямі розпочався відбір присяжних для федерального позову про неправомірну смерть проти компанії Tesla. Позов стосується фатальної аварії, що сталася в квітні 2019 року в Кей Ларго, Флорида, коли Tesla з Autopilot, оснащена системою Hardware 3, не зупинилася на знаку стоп і влаштувала наїзд на 22-річну Найбел Бенавідес Леон, внаслідок чого вона загинула на місці, а її партнер, Діллон Ангуло, отримав травму голови.
Основні моменти свідчень експертів
Недоліки в проєктуванні автономних систем
Міссі Каммінгс, колишня старша радниця NHTSA та дослідниця автономних систем, охарактеризувала допоміжні системи водіння Tesla як дефектні за задумом. Вона зазначила:
“Tesla свідомо дозволяє Autopilot працювати в умовах, для яких її система зору не розроблена, наприклад, на неструктурованих перехрестях.”
Каммінгс детально описала, що автомобіль покладається на вісім камер, 12 ультразвукових датчиків і радар, які інтегровані в комп’ютер FSD від Tesla (приблизно 2 петафлопи продуктивності INT8). Вона стверджувала, що без використання лидара або карт з високою роздільною здатністю, розуміння сцени на високих швидкостях залишається ненадійним, особливо в складних умовах освітлення або погоди.
Неправильне подання статистичних даних
Статистик з Університету Кейс Вестерн Мендел Сінгер свідчив, що опубліковані зниження рівня аварій від Tesla не мають рецензії та незалежної валідації. Він пояснив:
“Tesla враховує аварії з участю не-Tesla на основі поліцейських звітів, але фільтрує свої власні аварії на основі журналів використання Autopilot — це спотворює будь-який порівняльний аналіз.”
Сінгер порівняв непубліковані дані Tesla з статистикою IIHS та Euro NCAP для систем рівня 2 (наприклад, GM Super Cruise, Ford BlueCruise), які підлягають стандартизованим тестам.
Регуляторний та галузевий контекст
У травні 2025 року NHTSA підвищила рівень попереднього розслідування Tesla Autopilot до інженерного аналізу, зосередившись на моніторингу водія та показниках відключення системи. Одночасно Європейський Союз у своєму Законі про ШІ класифікує програмне забезпечення автономії в безпечних критичних транспортних засобах як високий ризик, чекаючи на більш суворі вимоги до прозорості та звітності про інциденти.
- Відзив NHTSA (квітень 2025): Tesla погодилася оновити програмне забезпечення для забезпечення контролю водіння за допомогою датчиків крутного моменту та камери, що дивиться всередину.
- SAE J3016 Рівень 2: Вимагає постійного нагляду водія; реклама Tesla часто розмиває межу між Рівнем 2 та вищою автономією.
- Підходи конкурентів: GM використовує інфрачервоне відстеження очей; Mercedes інтегрує радарно-лидарну фузію для попередження про перехресний рух.
Технічні обмеження ADAS, що працюють лише на зору
ADAS, які покладаються лише на зір, такі як Tesla, використовують згорткові нейронні мережі, навчання на величезних наборах даних (понад 1 мільярд миль реальних даних про водіння). Проте експерти зазначають:
- Продуктивність при низькому освітленні: Камерні сенсори з динамічним діапазоном 8 біт мають труднощі в умовах світанку/сутінків. Відсутність активного освітлення робить виявлення об’єктів ненадійним.
- Плутанина режимів: Водії плутали статус Autopilot — Каммінгс наводить внутрішні журнали, які показують понад 10,000 “ігнорованих подій крутного моменту” лише у 2018 році.
- Оновлення програмного забезпечення: Оновлення по повітрю можуть призводити до непередбачуваної поведінки; NHTSA повідомила про відкликання бета-версії FSD 2024, що вплинуло на 300,000 автомобілів.
Перспективи стандартів автономного водіння
Оскільки регулятори вимагають більш надійних рамок безпеки, виробники автомобілів досліджують нові комплекти датчиків і централізовані архітектури обчислень. Тенденції в галузі включають:
- Інтеграція лидара: Компанії, такі як Waymo та Cruise, використовують лида для 3D-картографування та резервування.
- Edge AI: Чіпи наступного покоління (наприклад, Qualcomm Snapdragon Ride) обіцяють понад 5 петафлопів, що дозволяє обробку злитих даних датчиків на борту.
- Моделі підписки: Підписка Tesla на FSD, запущена наприкінці 2024 року, тепер включає критично важливі оновлення безпеки, пов’язані з показниками роботи водія.
Додаткові перспективи: Етичні та правові наслідки
Окрім інженерних аспектів, справа піднімає етичні питання щодо інформованої згоди та експериментування над людьми. Свідчення Ангуло — “ми стали об’єктами експерименту” — підкреслює ймовірну відсутність адекватних попереджень для користувачів та валідації реальної продуктивності.
Висновок та можливі наслідки
Хоча Tesla врегулювала численні позови щодо Autopilot (наприклад, Уолтера Хуана у 2024 році, Джеремі Баннера у 2025 році), цей федеральний судовий процес може сприяти більш широким реформам в індустрії та доступу до даних про безпеку. Юридичний експерт Едвард Нідермейєр прогнозує:
“Це може бути менш про гроші і більше про встановлення відповідальності та прозорих стандартів безпеки для всіх постачальників ADAS.”
Остаточний вердикт може вплинути на майбутнє законодавство щодо технологій моніторингу водіїв та встановити прецеденти для судових справ, пов’язаних з автономними транспортними засобами.