ФБР попереджає про шахрайство з голосом за допомогою ШІ та способи захисту
У травні 2025 року Центр скарг на Інтернет-злочини ФБР (IC3) випустив термінове попередження для федеральних, державних та приватних установ про зростаючу загрозу кампанії з використанням глибоких фейків у форматі аудіо. Зловмисники використовують сучасні моделі штучного інтелекту для клонування голосу, щоб видавати себе за високопосадовців США, вводячи жертв в оману та спонукаючи їх переходити за шкідливими посиланнями, які встановлюють шкідливе програмне забезпечення або збирають облікові дані.
Передумови та масштаби загрози
З квітня 2025 року надійшло кілька повідомлень про те, що люди отримують дзвінки та текстові повідомлення, нібито від чиновників на рівні Кабінету або керівників агентств. Згідно з попередженням IC3, ця схема націлена на нинішніх і колишніх федеральних працівників, підрядників та їх особисті контакти. В одному з задокументованих випадків штучно згенероване повідомлення імітувало голос високопосадовця Міністерства внутрішньої безпеки, інструктуючи жертву “клікнути на посилання запрошення в Zoom”, яке містило безшумний шифрувальник RansomExx.
Як працює схема
Зловмисники починають з етапу розвідки, збираючи публічно доступне аудіо з прес-брифінгів, подкастів та відео з соціальних мереж. Потім вони налаштовують нейронні системи перетворення тексту в мову, такі як Tacotron 2 або FastSpeech 2, використовуючи шари адаптації до голосу, що дозволяє генерувати синтетичні голосові зразки, які майже неможливо відрізнити від справжніх записів.
- Початковий контакт: Жертви отримують текстове повідомлення з персоналізованим привітанням та прикріпленим голосовим кліпом, згенерованим штучним інтелектом.
- Перехід на іншу платформу: Дзвонячий пропонує перейти до зашифрованого месенджера, посилаючись на “протоколи безпеки”.
- Шкідливе посилання: Під виглядом запрошення на зустріч або порталу для аутентифікації жертвам надсилається URL, який запускає автоматичне завантаження або рутину фішингу OAuth.
- Компрометація облікового запису: Після збору облікових даних або токенів зловмисники здійснюють бічний рух у мережах, часто використовуючи маячки Cobalt Strike.
Техніки генерації глибоких фейків: як це працює
Сучасні системи клонування голосу зазвичай використовують двоступеневу архітектуру: нейронну модель “послідовність до послідовності”, яка прогнозує мел-спектрограми з текстових даних, за якою слідує нейронний вокодер (наприклад, WaveNet або WaveGlow), що синтезує звукові хвилі високої якості. Дослідники з Лабораторії комп’ютерних наук та штучного інтелекту MIT нещодавно продемонстрували безшовну систему перетворення голосу, яка адаптується до нових спікерів лише за 5 секунд аудіо.
Ключові технічні фактори, що дозволяють створювати реалістичні глибокі фейки:
- Трансферне навчання: Моделі, попередньо навчені на зразках голосу, налаштовуються під цільовий голос, що значно зменшує необхідні дані.
- Покращення нейронного вокодера: Генеративні змагальні мережі (GAN), такі як MelGAN, генерують аудіо з роздільною здатністю 24 біти та частотою дискретизації 48 кГц.
- Моделювання просодії: Системи тепер імітують тонкі мовні патерни — інтонацію, паузи та емоційні акценти, щоб уникнути роботизованих артефактів.
Виникаючі контрзаходи та інструменти виявлення
З поширенням атак з використанням глибоких фейків з’явилися комерційні та відкриті фреймворки для їх виявлення. Azure AI компанії Microsoft нещодавно інтегрував API Виявлення глибоких фейків у аудіо, який аналізує спектро-часові невідповідності, тоді як незалежні проекти, такі як DFDetection, зосереджуються на класах машинного навчання, навчених на прикладах атак.
Техніки миттєвого реагування включають:
- Акустичний відбиток: Порівняння живого аудіо з надійним корпусом для перевірки особи спікера.
- Протоколи виклику-відповіді: Включення токенів nonce у вербальні виклики, які автоматизовані клони не можуть відтворити в реальному часі.
- Цифрові голосові підписи: Використання криптографічних ключів, вбудованих у SIP-заголовки в рамках STIR/SHAKEN для аутентифікації особи дзвонячого.
Регуляторні та етичні наслідки
Національний офіс ініціативи з штучного інтелекту адміністрації Байдена переглядає нові рекомендації, які вимагатимуть водяного знака для будь-якого контенту, згенерованого штучним інтелектом, що використовується в офіційних комунікаціях. Паралельно прийдешній Закон Європейського Союзу про штучний інтелект класифікує ненаділені синтетичні медіа як високий ризик, накладаючи штрафи до 30 мільйонів євро за невиконання вимог.
Експерти з кібербезпеки попереджають, що без стандартизованих вимог до розкриття інформації технології глибоких фейків можуть підірвати довіру суспільства до медіа та комунікацій. Брус Шнайєр, технолог безпеки з Гарвардської школи Кеннеді, зазначив: “Нам потрібна комбінація юридичних обмежень, технічного водяного знака та підвищення обізнаності суспільства, щоб випередити супротивників, які експлуатують штучний інтелект”.
Заходи пом’якшення та найкращі практики
У попередженні ФБР рекомендується проявляти підвищену обережність та виконувати перевірки. Організації повинні оновити свої плани реагування на інциденти, включивши специфічні для AI вектори атак, та інвестувати в багатофакторну аутентифікацію (MFA), яка не покладається виключно на спільні секрети або одноразові коди, надіслані через SMS.
- Завжди перевіряйте особу дзвонячого, самостійно отримуючи офіційні контактні дані та перевіряючи через захищені канали.
- Впроваджуйте системи голосової аутентифікації, які включають виявлення живості та механізми виклику-відповіді.
- Увімкніть STIR/SHAKEN на всіх корпоративних VoIP-системах, щоб зменшити доставку підроблених номерів.
- Регулярно проводьте навчальні вправи, що імітують сценарії з глибокими фейками за участю керівників.
- Навчайте співробітників новим тактикам соціальної інженерії, підкреслюючи, що ніхто не застрахований від складних схем, що використовують штучний інтелект.
Висновок
Постійна кампанія з використанням глибоких фейків у форматі аудіо демонструє швидкість, з якою інструменти штучного інтелекту можуть бути перетворені на зброю проти цілей як у державному, так і в приватному секторах. Об’єднавши найсучасніші фреймворки виявлення, надійні процедури аутентифікації та проактивні політичні заходи, організації можуть зміцнити свої оборонні позиції. Оскільки технологія продовжує еволюціонувати, постійна співпраця між командами кібербезпеки, дослідниками штучного інтелекту та регуляторними органами буде життєво важливою для збереження довіри в цифрових комунікаціях.