Одяг, який робить вас «невидимим» для деяких алгоритмів спостереження

Завдяки поширенню штучного інтелекту камери відеоспостереження можуть перетворюватися в справжніх шпигунів, а зображення, взяті з соціальних мереж або відео, іноді потрапляють в величезні бази даних типу Clearview AI. Одяг зі спеціальної тканини може від цього захистити.

Дослідники з Facebook та Університету Мериленду створили світшоти, які обманюють алгоритми спостереження. Вони називають їх «плащами-невидимками» для штучного інтелекту.

Принцип дії нової розробки заснований на особливості алгоритмів комп’ютерного зору, яка була виявлена ​​близько п’яти років тому. Ці системи використовують простий, навіть кілька примітивний підхід до ідентифікації об’єктів: вони шукають в новому зображенні набори пікселів, які схожі на побачені до цього.

На відміну від людей, які можуть встановлювати складні взаємозв’язки при вивченні нового, алгоритм просто зіставляє нові дані зі зразком. І якщо ви знаєте шаблон, який він шукає, ви можете його приховати.

Щоб створити одяг, який обдурить системи спостереження, команда Facebook і Університету Мериленду опрацювала близько 10 тисяч зображень людей за допомогою алгоритму виявлення. Коли штучний інтелект знаходив людину, зображення замінювали, випадковим чином спотворюючи перспективу, яскравість і контраст. Ще один алгоритм визначав, яка зі змін найефективніше обманювала систему.

Потім рандомізовані патерни надрукували на фізичні об’єкти — плакати, паперові ляльки і, нарешті, на одязі — і з’ясували, що алгоритми, як і раніше їх не розпізнають. Однак дослідники відзначили, що показники реальних тестів були нижче в порівнянні з віртуальними. Коли людина одягає світшот, ймовірність того, що система відеоспостереження її виявить, знижується з майже 100% до 50%.

Це дослідження — продовження роботи, розпочатої фахівцями факультету інформатики Університету Мериленду, деякі з яких приєдналися до Facebook у 2018 і 2019 роках. Раніше лабораторія вивчала, як ті ж принципи дозволяють обманювати алгоритми, які протидіють порушенню авторських прав — наприклад, на YouTube. Так вчені хотіли привернути увагу до того, наскільки легко ухилитися від подібних систем.

Це дослідження може бути корисно і для Facebook. Систему вдається обманювати, тому що алгоритмам розпізнавання зображень не вистачає контексту і розуміння аналізованих зображень.

Виявлення слабких місць системи — перший крок до підвищення її надійності. Це початок процесу, який не тільки зробить алгоритми більш стійкими до атак, але і допоможе їм стати більш точними та гнучкими. Іншими словами, це дослідження покликане не знищити систему, а підвищити її ефективність.

Насправді вже зараз футболка або світшот з принтом, який обманює алгоритми, навряд чи допоможе обійти технологію спостереження — це показали результати тестування популярних систем з відкритим вихідним кодом. Крім того, вони не захищають від програм розпізнавання облич, які, наприклад, використовуються в громадських місцях для підрахунку кількості людей. Але сам факт того, що люди намагаються обійти сучасний алгоритм за допомогою простого предмета одягу, говорить про мінливий ландшафт в цій сфері. І навіть якщо ця хитрість не спрацює, світшот, що захищає від систем відеоспостереження, може стати відмінною темою для діалогу.

БІЛЬШЕ ЦІКАВОГО:

Джерело: Onezero

Читайте также:

Як створити діпфейк не володіючи програмуванням? Реальний приклад

Реалізація майбутнього без вуглецю — як Google планує перейти повністю на чисту енергію

Не вірте всьому що чуєте, або як діпфейк-аудіо стало ще одним інструментом для шахраїв

Ідеальний спортзал при карантині або як можна ефективно займатися вдома