Завдяки поширенню штучного інтелекту камери відеоспостереження можуть перетворюватися в справжніх шпигунів, а зображення, взяті з соціальних мереж або відео, іноді потрапляють в величезні бази даних типу Clearview AI. Одяг зі спеціальної тканини може від цього захистити.
Дослідники з Facebook та Університету Мериленду створили світшоти, які обманюють алгоритми спостереження. Вони називають їх «плащами-невидимками» для штучного інтелекту.
Принцип дії нової розробки заснований на особливості алгоритмів комп’ютерного зору, яка була виявлена близько п’яти років тому. Ці системи використовують простий, навіть кілька примітивний підхід до ідентифікації об’єктів: вони шукають в новому зображенні набори пікселів, які схожі на побачені до цього.
На відміну від людей, які можуть встановлювати складні взаємозв’язки при вивченні нового, алгоритм просто зіставляє нові дані зі зразком. І якщо ви знаєте шаблон, який він шукає, ви можете його приховати.
Щоб створити одяг, який обдурить системи спостереження, команда Facebook і Університету Мериленду опрацювала близько 10 тисяч зображень людей за допомогою алгоритму виявлення. Коли штучний інтелект знаходив людину, зображення замінювали, випадковим чином спотворюючи перспективу, яскравість і контраст. Ще один алгоритм визначав, яка зі змін найефективніше обманювала систему.
Потім рандомізовані патерни надрукували на фізичні об’єкти — плакати, паперові ляльки і, нарешті, на одязі — і з’ясували, що алгоритми, як і раніше їх не розпізнають. Однак дослідники відзначили, що показники реальних тестів були нижче в порівнянні з віртуальними. Коли людина одягає світшот, ймовірність того, що система відеоспостереження її виявить, знижується з майже 100% до 50%.
Це дослідження — продовження роботи, розпочатої фахівцями факультету інформатики Університету Мериленду, деякі з яких приєдналися до Facebook у 2018 і 2019 роках. Раніше лабораторія вивчала, як ті ж принципи дозволяють обманювати алгоритми, які протидіють порушенню авторських прав — наприклад, на YouTube. Так вчені хотіли привернути увагу до того, наскільки легко ухилитися від подібних систем.
Це дослідження може бути корисно і для Facebook. Систему вдається обманювати, тому що алгоритмам розпізнавання зображень не вистачає контексту і розуміння аналізованих зображень.
Виявлення слабких місць системи — перший крок до підвищення її надійності. Це початок процесу, який не тільки зробить алгоритми більш стійкими до атак, але і допоможе їм стати більш точними та гнучкими. Іншими словами, це дослідження покликане не знищити систему, а підвищити її ефективність.
Насправді вже зараз футболка або світшот з принтом, який обманює алгоритми, навряд чи допоможе обійти технологію спостереження — це показали результати тестування популярних систем з відкритим вихідним кодом. Крім того, вони не захищають від програм розпізнавання облич, які, наприклад, використовуються в громадських місцях для підрахунку кількості людей. Але сам факт того, що люди намагаються обійти сучасний алгоритм за допомогою простого предмета одягу, говорить про мінливий ландшафт в цій сфері. І навіть якщо ця хитрість не спрацює, світшот, що захищає від систем відеоспостереження, може стати відмінною темою для діалогу.
БІЛЬШЕ ЦІКАВОГО:
- Як обійти технологію розпізнавання облич? Спроби дослідників
- Чи може штучний інтелект розпізнавати брехню?
- Як вчаться машини — просте і зрозуміле відео про роботу алгоритмів
Джерело: Onezero