Російські відео на TikTok: провали Veo 3 та думки експертів

Останній відеогенератор Google, Veo 3, запущений у травні 2025 року, забезпечує безпрецедентний рівень реалістичності, але його системи безпеки обійдуть, щоб створювати ненависницький контент на TikTok та інших платформах.
Вступ
Запуск Veo 3, сучасної моделі тексту в відео від Google, обіцяв творцям ідеально чіткі кліпи тривалістю до восьми секунд у роздільній здатності 1080p. Проте вже через кілька тижнів після випуску на TikTok почали з’являтися відео, згенеровані штучним інтелектом, які містять відверті расистські та антисемітські стереотипи. Незважаючи на те, що Google і TikTok запровадили політику протидії ненависті, кількість таких відео різко зросла, вказуючи на серйозні прогалини в безпеці штучного інтелекту, масштабах модерації та регуляторному контролі.
Технології та можливості Veo 3
- Архітектура моделі: Veo 3 використовує трансформерну архітектуру на основі дифузійного процесу, оптимізовану для часової послідовності. Він може генерувати до 30 кадрів на секунду протягом восьми секунд, вимагаючи приблизно 150 TFLOPs обчислень на відео.
- Роздільна здатність та водяні знаки: Вихідні дані за замовчуванням мають роздільну здатність 1080p та співвідношення сторін 16:9 з вбудованим водяним знаком “Veo”. Google застосовує багатошаровий водяний знак, який можна програмно виявити для підтвердження походження.
- Гнучкість запитів: Інструкції природною мовою забезпечують детальний контроль над сценами — освітленням, рухом камери, стилем персонажів — що робить легким визначення карикатур або символічних зображень.
Непередбачувані наслідки: расистські стереотипи на TikTok
Наприкінці червня 2025 року розслідування MediaMatters зафіксувало десятки акаунтів TikTok, які публікують кліпи, згенеровані Veo 3, де чорних людей зображують як “мавп, що їдять кавун”, іммігрантів як злочинців, а євреїв у змовницьких сценаріях. Ці восьмисекундні відео, кожне з яких має водяний знак Veo, вже зібрали мільйони переглядів та взаємодій — свідчення того, як провокаційний контент підвищує алгоритмічну видимість.
Механізми безпеки: системи захисту контенту Google
Політика забороненого використання Google забороняє мову ненависті, переслідування та дифамацію. Veo 3 включає:
- Навчання з підкріпленням на основі людського зворотного зв’язку (RLHF): Направляє модель від заборонених тем.
- Фільтри для запитів: Блокують запити, що містять образливі слова або ключові слова, пов’язані з ненавистю.
- Детектори після генерації: Перевіряють вихідні дані на наявність візуальних символів ненависті.
Проте, тонке налаштування запитів — наприклад, “згенерувати карикатуру примата, що скоює крадіжку” — може обійти фільтри за ключовими словами. Експертка Аліс Чжен, колишня етична спеціалістка Google AI, зазначає:
“Детекція Veo 3 є статичною. Зловмисники адаптуються в реальному часі, вводячи синоніми чи аналогії, які проходять повз фільтри.”
Виклики модерації TikTok
- Обсяги завантажень: Щохвилини завантажується понад 1000 годин відео. Автоматизовані інструменти для зіставлення хешів не встигають за темпами.
- Огляд за допомогою ШІ: TikTok використовує внутрішні згорткові нейронні мережі для позначення насильницьких або ненависницьких зображень, але ці моделі ще не налаштовані на AI-генеровані дипфейки.
- Людська модерація: Тисячі рецензентів контенту по всьому світу, проте середній час обробки перевищує 24 години — достатньо для відео, щоб стати вірусними.
Представник TikTok повідомив Ars Technica: “Ми заборонили понад половину акаунтів, згаданих у MediaMatters, та видалили решту протягом 48 годин. Ми вдосконалюємо нашу систему виявлення, щоб розпізнавати водяні знаки Veo.”
Експертні думки та етичні роздуми
Етики штучного інтелекту попереджають, що реалістичні синтетичні медіа підривають довіру суспільства та посилюють соціальні розділи. Доктор Семюел Пауел, директор Центру цифрової довіри, стверджує:
“Коли генеративні моделі можуть створювати ненависницький контент, що не відрізняється від реальності, платформи повинні запроваджувати ймовірнісне виявлення та обмін ідентифікаторами між платформами, щоб зупинити його поширення.”
Запропоновані рішення включають:
- Надійне метадані водяного знака: Вбудовування криптографічно підписаних метаданих, невидимих для користувачів, але виявляються автоматизованими сканерами.
- Відкриті набори для виявлення: Інструменти, керовані спільнотою, такі як DeepfakeDet, для краудсорсингу поліпшень.
- Етичне навчання ШІ: Формування навчальних наборів, які містять різноманітні приклади, що навчають модель розпізнавати та відмовлятися від ненависницьких стереотипів.
Регуляторні та промислові реакції
З набуттям чинності Закону про штучний інтелект ЄС наприкінці 2025 року компанії ризикують отримати штрафи до 6% від світового доходу за серйозні зловживання. У червні Управління з питань конкуренції та ринків Великобританії розпочало розслідування щодо безпеки генеративного ШІ. У США Федеральна торгова комісія та Комітет з питань юстиції Сенату висловили інтерес до притягнення платформ до відповідальності за розповсюдження ненависницької мови на основі ШІ.
Google вже почала тестування бета-версії Veo 3.1 з розширеними семантичними фільтрами та динамічним відхиленням запитів. TikTok проводить пілотний проект з обміну хешами між платформами X та YouTube, щоб стримати швидкі повторні завантаження.
Майбутні напрямки та технічні рішення
- Федеративні мережі модерації: Обмін анонімізованими підписами контенту між платформами для запобігання повторним завантаженням.
- Адаптивні шари безпеки: Модулі моніторингу в реальному часі, які оновлюються новими патернами ненависницької мови, використовуючи безперервне навчання.
- Регуляторні пісочниці: Співпраця між промисловістю та урядом для випробування передових технологій модерації без стримування інновацій.
Висновок
Хвиля расистських відео на основі штучного інтелекту на TikTok підкреслює жорстоку реальність: навіть найсучасніші системи захисту можуть бути перевершені зловмисниками. Оскільки Google інтегрує Veo 3 у YouTube Shorts та інші сервіси, багаторівневі технічні заходи, надійне дотримання політики та співпраця між платформами стануть вирішальними для захисту цифрових спільнот від ненависті, підсиленої штучним інтелектом.