Скандал з фейковими подкастами Spotify: штучний інтелект і продаж наркотиків
На початку цього місяця Spotify офіційно визнала та видалила понад 200 фальшивих подкастів, які приховано рекламували рецептурні та заборонені наркотики. Дослідники безпеки та журналісти з Business Insider і CNN виявили ці ультракороткі епізоди—деякі тривали лише 10 секунд—використовуючи технології перетворення тексту в мову на основі штучного інтелекту для реклами таких препаратів, як Аддералл, Ксанакс та кодеїн, що явно порушує федеральні закони та власні політики контенту Spotify.
Виявлення та масштаб шахрайства
- Business Insider вперше повідомив про видалення 200 подкастів; пізніше CNN виявила ще десятки.
- Назви епізодів, такі як «Мій магазин Аддераллу» та «Замовити Ксанакс 2 мг онлайн — велика угода до Різдва», були очевидними сигналами для модераторів.
- Деякі подкасти не мали жодного звуку; інші містили монотонні, комп’ютерно згенеровані голоси тривалістю менше 60 секунд.
- Перенасичення ключовими словами в метаданих RSS та назвах подкастів забезпечувало високі позиції в пошукових результатах платформи для рецептурних препаратів.
Механізм шахрайства та роль ШІ
Прогрес у нейронних моделях перетворення тексту в мову (TTS)—деякі з яких доступні через відкриті бібліотеки, такі як Mozilla TTS, або комерційні API, такі як Google Cloud Text-to-Speech—значно полегшив створення синтетичного аудіоконтенту в масштабах. Шахраї використовують легкі генератори RSS, автоматизовані CI/CD канали на хмарних платформах та тимчасові домени, щоб швидко створювати та знищувати тисячі подкастів за лічені хвилини.
Аудіофінгертинг або перевірка хешованих метаданих могли б виявити повторюваний або беззвучний аудіо, але нинішня модерація Spotify в основному покладається на автоматизовані текстові фільтри та повідомлення від користувачів. Знахідки CNN свідчать про те, що ці системи виявилися недостатніми: десятки подкастів залишалися активними протягом місяців до ручного видалення.
Регуляторний тиск та правові наслідки
Міністерство юстиції США та FDA випустили попередження щодо інтернет-аптек, які продають підроблені або неправильно представлені контрольовані речовини. Згідно з Законом про контрольовані речовини, сприяння або реклама нелегальних продажів є федеральним злочином. У лютому 2025 року група, відома як Операція «Білий порошок II», почала націлюватися на цифрові ринки, які маскуються під легітимні медіа-канали.
Spotify, захищена статтею 230 від відповідальності за контент, створений користувачами, стикається з репутаційними ризиками та потенційним законодавчим контролем, оскільки політики розглядають можливість посилення відповідальності платформ.
Технічний аналіз: виявлення та модерація в масштабах
Ефективні модераційні канали поєднують класифікатори машинного навчання, аналіз аудіосигналів та евристики метаданих. Найкращі практики в галузі включають:
- Витяг акустичних ознак: аналізування патернів мел-спектрограм для виявлення повторюваних артефактів TTS.
- Виявлення аномалій RSS: моніторинг змін частоти оновлення подкастів, редирекцій посилань та віку реєстрації доменів.
- Обмін інформацією між платформами: інтеграція загроз з нещодавно опублікованої рекомендації CISA щодо зловживання синтетичними медіа.
Блог інженерів Spotify зазначає, що компанія продовжує інвестувати в API для сканування контенту від третіх сторін та внутрішні моделі машинного навчання для виявлення патернів ключових слів, пов’язаних із нелегальною торгівлею.
Думки експертів та пропоновані рішення
Кеті Пол з Tech Transparency Project попереджає, що медіа на основі голосу залишаються “сліпою плямою” для модерації. Вона виступає за:
- Обов’язкові цифрові водяні знаки в усіх аудіоматеріалах, створених користувачами, які публікуються в масштабах.
- Черги для перевірки в реальному часі, пріоритет яких визначається ризиковими оцінками на основі композитних сигналів (текст, аудіо, репутація посилань).
- Сильнішу співпрацю між платформами, правоохоронними органами та академічними дослідниками для вдосконалення алгоритмів виявлення.
На слуханні Конгресу у травні 2025 року експерти з Центру Інтернету та суспільства Стенфорда рекомендували фінансовані федеральним урядом дослідження виявлення ворожого аудіо, посилаючись на успіхи в випробуваннях водяних знаків від OpenAI та нову систему походження мови від Adobe.
Перспективи: ШІ та управління контентом
Оскільки екосистеми генеративного ШІ продовжують розвиватися, платформам, таким як Spotify, потрібно буде знайти баланс між відкритими моделями публікації та надійними механізмами захисту. Аналітики прогнозують гонку озброєнь між шахрайськими мережами на основі TTS та дедалі більш досконалими детекторами ШІ. Майбутні законодавчі пропозиції—такі як Закон про відповідальність цифрових послуг, що обговорюється в Конгресі—можуть вимагати розкриття синтетичних джерел та пришвидшити впровадження стандартизованих API для походження аудіо.
Тим часом, споживачі та рекламодавці повинні залишатися пильними. Представник Spotify повідомив Ars Technica, що «ми постійно працюємо над виявленням та видаленням порушуючого контенту на нашій платформі», але визнав, що це складне завдання в умовах, коли супротивники використовують хмарні інструменти та епhemerальні домени.