Суд дозволив продовжити розгляд справи щодо ролі чат-бота Google

У знаковому рішенні, ухваленому 22 травня 2025 року, окружний суддя США Енн Конвей відхилила клопотання Google про відхилення позову, поданого Меган Гарсією. Її 14-річний син, Сьюелл Сетцер III, покінчив життя самогубством після спілкування з чат-ботами Character.AI. Це рішення відкриває можливості для розслідування ймовірної участі Google у розробці та інтеграції своїх великих мовних моделей (LLM) у платформу Character.AI, що може стати новим юридичним прецедентом у справі відповідальності за штучний інтелект.
Передумови справи
У позові Гарсія стверджує, що співзасновники Character.AI Ноам Шазір і Даніель Де Фрейтас почали розробку своєї системи чат-ботів, працюючи в Google, використовуючи внутрішні ресурси, перш ніж у 2021 році покинули компанію для заснування Character Technologies. Згідно з матеріалами суду, Google визнала їхній прототип занадто «небезпечним» для відповідності своїм принципам безпеки та справедливості в сфері штучного інтелекту, проте нібито продовжувала постачати компоненти – від попередньо навчених векторів до конвеєрів доопрацювання – через платформу Google Cloud.
Звинувачення проти Google
- Внесок у дизайн: Гарсія стверджує, що Google надала API-інтерфейси, модулі обробки даних та персонал, який допомагав інтегрувати LLM Google у додаток Character.AI.
- Несправедливе збагачення: Конвей визнала ймовірним, що Google отримала вигоду від доступу до мільйонів сеансів користувачів Character.AI, що, можливо, включало дані неповнолітніх, що сприяло зростанню доходів перед випуском власних продуктів Gemini.
- Сприяння та пособництво: У позові стверджується, що Google мала «фактичні знання» про небезпечні сигнали, але дозволила дефектному продукту потрапити до вразливих підлітків.
Технічна інтеграція та архітектура моделей
Експертний аналіз доктора Алана Томпсона, комп’ютерного лінгвіста з MIT, свідчить, що основна модель Character.AI близька до архітектури Google з кодовою назвою Gemini-1.5. Ключові технічні специфікації, наведені в матеріалах, включають:
- Розмір моделі: близько 70 мільярдів параметрів
- Джерела навчальних даних: Common Crawl, діалоги Reddit, власні набори даних для спілкування
- Механізми безпеки: навчання з підкріпленням на основі зворотного зв’язку від людей (RLHF), евристичні фільтри контенту та моніторинг у реальному часі
Згідно з витягами з показань, платформа Google Cloud AI забезпечувала як етапи попереднього навчання, так і доопрацювання, пропонуючи TPU-v4 поди, спеціальні контейнери для навчання та управління наборами даних. Команда Гарсії стверджує, що ці внески кваліфікують Google як співавтора відповідно до законодавства про відповідальність за продукти.
Конфіденційність даних та етичні наслідки
Цей позов піднімає нагальні питання щодо етики збору даних. Character.AI позиціонувала свої послуги як дружні до дітей та збирала дані користувачів – текст, метадані та навіть голосові записи – нібито для досліджень безпеки. Проте, як стверджується, Google отримала доступ до цього масиву даних за угодою на $2,7 мільярда. Експерти з конфіденційності попереджають, що змішування даних неповнолітніх з загальними даними для навчання LLM може порушити положення COPPA та GDPR щодо неповнолітніх.
Юридичний прецедент та майбутня відповідальність за штучний інтелект
Рішення судді Конвей дозволити продовжити розгляд звинувачень у несправедливому збагаченні та пособництві може суттєво вплинути на регулювання штучного інтелекту. Юридичний експерт професор Еріка Чен зі Стенфордської юридичної школи зазначає: «Це рішення визнало виходи LLM потенційно дефектними в контексті відповідальності за продукцію, обходячи ранні захисти за Першою поправкою. Це сигналізує про те, що розробники штучного інтелекту можуть бути притягнуті до відповідальності за передбачувані збитки». Оскільки юрисдикції по всьому світу розробляють регуляції для штучного інтелекту – такі як Закон про штучний інтелект ЄС та очікувані законопроекти США щодо контролю за AI – цю справу уважно стежитимуть.
Думки експертів щодо регулювання штучного інтелекту
«Нам потрібні стандартизовані сертифікації безпеки для великих мовних моделей, подібно до затверджень медичних пристроїв», говорить доктор Маркус Лю, директор Центру етичного штучного інтелекту в Берклі. «Без чітких сторонніх аудитів майже неможливо визначити відповідальність, коли щось іде не так».
Наступні кроки та наслідки
Оскільки більшість звинувачень залишилися в силі, розслідування передбачає перевірку внутрішніх електронних листів, комітів виходу коду та рахунків за хмарні послуги. Google повинна або довести, що моделі Character.AI суттєво відрізняються від її технології Gemini, або спростувати факт отримання вигоди від даних користувачів. Character Technologies має до літа 2025 року, щоб внести зміни до свого захисту за Першою поправкою, що може прояснити, чи кваліфікуються виходи LLM як захищене висловлювання.
Категорії: Штучний інтелект і машинне навчання, Технічні новини, Хмарні обчислення