Не вірте всьому що чуєте, або як діпфейк-аудіо стало ще одним інструментом для шахраїв

Важко уявити, наскільки широкий потенціал використання діпфейків: від смішних роликів, нешкідливої реклами та кіно до політичної пропаганди та порно. Завдяки їм Девід Бекхем заговорив на 9 мовах, Ілон Маск заспівав російською, а фільмографія Ніколаса Кейджа стала ще більше. Зрозуміло, нова технологія також привернула увагу шахраїв. До чого нам готуватися, щоб не бути обдуреними?

У червні співробітник однієї компанії отримав голосове повідомлення від людини, який представився CEO і попросив «негайно допомогти завершити термінову операцію». Попри те, що голос був практично ідентичний оригіналу, запис було створено за допомогою комп’ютерної програми. Фахівці, які розслідували інцидент, прийшли до висновку, що це було діпфейк-аудіо…

Консалтингова компанія з безпеки NISOS, розташована в Александрії, штат Вірджинія, проаналізувала голосове повідомлення і визначила, що це була підробка, створена, щоб обдурити одержувача. Про це йдеться в розслідуванні NISOS.

В останні три роки журналісти та дослідники попереджали про появу діпфейк-відео — роликів, в яких обличчя замінені на зображення знаменитостей або політиків за допомогою штучного інтелекту. Таким чином можна вплинути на вибори або спровокувати міжнародний скандал. Але поки цього не відбувалося. Найчастіше технологія використовується для створення порно — зрозуміло, без дозволу тих, чиї обличчя були використані.

Діпфейки вже почали застосовувати в кримінальному світі. Минулого року одна компанія повідомила, що її співробітник перевів зловмисникові $240 тис. Після того, як отримав повідомлення від людини, котрий представився CEO. NISOS не розкриває назву постраждалої організації, але погодилася поділитися аудіо.

Співробітник, який отримав повідомлення, не повірив у його правдивість і доповів про це своїм колегам, які звернулися в NISOS для розслідування. Фахівці проаналізували файл за допомогою інструменту спектрографії Spectrum3d, щоб виявити будь-які аномалії.

Дослідник NISOS Дев Бадло (Dev Badlu) розповідає: «З цим записом щось було не так. Схоже, що вони просто взяли окремі слова, вирізали їх і склали разом».

Бадло пояснює: він зрозумів, що це фейк, тому що в аудіо було багато піків і провалів, що ненормально для людської мови. Більш того, коли він знизив гучність голосу, на тлі була «мертва тиша» без будь-яких сторонніх звуків — вірна ознака підробки.

Роб Фолькерт (Rob Volkert), інший дослідник з NISOS, сказав, що злочинці можуть випробувати технологію, щоб побачити, чи будуть їм передзвонювати. Іншими словами, це лише один етап складної операції.

«Голос в запису дуже схожий на людський. Поки належить з’ясувати, робот це або насправді людина, — каже Фолькерт. — Я б сказав, що людина. Але не їх CEO».

Попри те, що в цей раз обман був розкритий, Фолькерт, Бадло і їх колеги вважають: це знак, що злочинці почали експериментувати з технологією, і спроба явно не стане останньою.

«Можливість генерувати аудіофайли розширює інструментарій кіберзлочинців, і кінець кінцем їм все одно доводиться використовувати тактику соціального інжинірингу, щоб схилити когось до дій, — йдеться у звіті NISOS. — Злочинці та держструктури вчаться один в одного, тому, як тільки подібні випадки стають більш відомими, ми очікуємо, що все більше людей будуть використовувати технології та переймати чужий досвід».

БІЛЬШЕ ЦІКАВОГО:

Джерело: Vice

Читайте также:

4 з 10 перекладачів втрачають роботу через штучниий інтелект

Перекладач із собачого: які технології допоможуть вам краще зрозуміти вашого вихованця

Штучний інтелект навчився покращувати смак пива

ШІ музика: як стартап Suno робить створення пісень доступним кожному