OpenAI прагне виключити приватні чати ChatGPT з пошуку Google
На початку серпня 2025 року дослідники безпеки та захисники приватності виявили, що тисячі приватних розмов у ChatGPT випадково потрапили в індексацію Google. Це відкриття викликало значне занепокоєння серед користувачів, які ділилися особистими подробицями—від проблем у стосунках до питань психічного здоров’я—вважаючи, що ці чати доступні лише через приватні посилання або локальну історію.
Передумови: Як розмови стали публічними
30 липня 2025 року видання Fast Company опублікувало розслідування, яке виявило, що функція «Поділитися» у ChatGPT містила опцію з позначкою Зробити цю розмову доступною для пошуку. При активації OpenAI створював публічне URL (https://chat.openai.com/c/share/<унікальний-хеш>
) і тихо додавав ці посилання до свого XML-карти сайту. Пошукові системи, такі як Googlebot, потім сканували та індексували їх, фактично роблячи приватний контент користувачів доступним для пошуку.
Анатомія функції та помилки в інтерфейсі
- Діалог поділу: Після натискання на «Поділитися» користувачі бачили позначку. Примітка про публічну індексацію була надрукована дрібним шрифтом, що робило її легкою для ігнорування.
- Включення в мапу сайту: Публічні посилання на спільні чати автоматично додавалися до
/sitemap.xml
. Без тегу
або виключення в robots.txt, сканери сприймали їх як звичайні URL. - Терміни індексації: Перше сканування Google відбулося протягом кількох годин. Наприкінці тижня тисячі розмов стали доступними через стандартні запити.
Наслідки для приватності та реакція користувачів
Хоча опубліковані URL не розкривали імена користувачів чи електронні адреси, вміст часто містив контекст, що дозволяє ідентифікувати особу. Карісса Веліц, етика штучного інтелекту з Оксфордського університету, заявила виданню Fast Company, що була «шокована», дізнавшись, що Google зафіксував «надзвичайно чутливі розмови». Дослідниця безпеки Кеті Муссуріс зазначила у X, що ця помилка підкреслює важливість захисних налаштувань у дизайні приватності.
«Навіть короткий період публічного доступу може мати тривалі наслідки, коли йдеться про інтимні особисті дані»,— сказала Муссуріс. «Компанії повинні впроваджувати суворі норми управління даними та забезпечити, щоб випадкова індексація ніколи не відбувалася».
Відповідь OpenAI та заходи з усунення проблеми
Головний інформаційний безпеки OpenAI Дейн Стукей оголосив у X, що ця функція була «недовготривалим експериментом» і що індексацію буде негайно зупинено. До наступної п’ятниці вранці записи публічної мапи сайту були видалені, а запити на видалення були надіслані Google через інструмент видалення URL у Search Console та API індексації.
Триваючі заходи з очищення
- Видалення записів
sitemap.xml
для спільних чатів. - Застосування
до всіх існуючих сторінок спільного користування.
- Надсилання масових запитів на видалення URL через Google Search Console.
Глибший аналіз: Правові та регуляторні наслідки
У світлі GDPR та CCPA, ненавмисне розкриття даних може призвести до значних штрафів—до €20 мільйонів або 4% світового обороту відповідно до GDPR. Експерти вважають, що OpenAI може стикнутися з розслідуваннями відповідно до статті 33 (повідомлення про витік даних), якщо регулятори визнали б це несанкціонованим розкриттям особистих даних.
Технічні запобіжники та найкращі практики
- Приватність за замовчуванням: Вибір відмови, а не згоди на публічний обмін. Забезпечити, щоб налаштування за замовчуванням сприяли максимальній конфіденційності.
- Директиви noindex: Застосовувати
на будь-яких сторінках, створених користувачами, до отримання явної публічної згоди.
- Надійний UI/UX: Використовувати чіткі, контрастні позначки та примусові діалоги підтвердження, щоб запобігти випадковій згоді.
- Перевірки: Регулярно сканувати мапи сайту та журнали публічних посилань на наявність ненавмисних включень, використовуючи автоматизовані інструменти, такі як Screaming Frog, або спеціальні скрипти для перевірки індексу мапи сайту.
Думки експертів
Шошана Зубофф, емерит професор Гарвардського університету, застерігає, що великі платформи штучного інтелекту сприймають ранніх користувачів як «експериментальні групи», вивчаючи помилки на великому масштабі. «Такі інциденти підкреслюють термінову необхідність зовнішніх перевірок і прозорих політик обробки даних»,— написала вона у своєму недавньому інформаційному бюлетені.
Висновок: Відновлення довіри користувачів
Швидке видалення OpenAI опублікованих URL—необхідний перший крок, але цей інцидент висвітлює більш широкі проблеми управління даними на платформах штучного інтелекту. Оскільки ChatGPT та подібні моделі продовжують залучати величезну кількість користувачів, надійні налаштування приватності, ретельне тестування та дотримання глобальних законів про захист даних стануть важливими для підтримки довіри суспільства.