Як влаштована робота модератора метавсесвіту

Традиційні засоби модерації не дуже підходять для метавсесвітів. Тому за порядком у Roblox та Horizon Worlds стежать волонтери, співробітники технологічних компаній та модератори під прикриттям. У матеріалі — про те, як забезпечити безпечний досвід у VR і чому для цього доводиться знехтувати конфіденційністю.

Цифрова безпека у метавсесвітах із самого початку залишається невирішеним питанням. Ситуація стала ще серйознішою, коли Meta оголосила, що зменшить мінімальний вік для платформи Horizon Worlds з 18 до 13 років. Компанія також обіцяє запровадити додаткові правила та функції для захисту молодих користувачів. Однак потрібно, щоб хтось забезпечував їхнє дотримання.

Meta не повідомляє, скільки модераторів контенту працює в Horizon Worlds, і чи має намір компанія збільшити їх кількість. Але зміни привертають увагу до того, хто стежить за порядком в онлайн-просторах, і як вони справляються з роботою.

Екканті працює модератором та менеджером з навчання у віртуальній реальності з 2020 року. Раніше він займався традиційною модерацією тексту та зображень. Він працевлаштований у WebPurify, яка надає послуги з модерації контенту таким інтернет-компаніям, як Microsoft та Play Lab, та працює з командою, що базується в Індії.

Він переважно взаємодіє з популярними платформами, зокрема тими, що належать Meta. Проте WebPurify відмовляється уточнити, якими саме, посилаючись на угоди про конфіденційність.

Екканті не розкриває свого статусу модератора. Він працює швидше під прикриттям, видаючи себе за звичайного користувача, щоб краще бачити порушення.

Традиційні засоби модерації, такі як фільтри, не надто ефективні в імерсивному середовищі. Тому основне завдання щодо безпеки лежить на таких модераторах, як Екканті, і його робота з кожним днем стає все важливішою.

Проблема безпеки у метавсесвіті складна та неочевидна. Журналісти неодноразово повідомляли про образи, шахрайство, домагання і навіть викрадення, організоване за допомогою VR-системи Oculus. Найбільші імерсивні платформи, такі як Roblox і Horizon Worlds, тримають статистику про порушення в найсуворішому секреті, але Екканті каже, що він стикається з ними щодня.

Meta відмовилася дати коментар, але надіслала список інструментів і політик, які вона має, і зазначила, що навчила фахівців з безпеки в Horizon Worlds. Представник Roblox зазначив, що компанія має «команду з тисяч модераторів, яка відстежує невідповідний контент 24/7 і вивчає звернення спільноти», а також використовує машинне навчання для перегляду тексту, зображень та аудіо.

Щоб розв’язувати проблеми безпеки, технологічні компанії використовують волонтерів, співробітників, модераторів під прикриттям і все частіше функції платформи, які дозволяють користувачам самостійно забезпечувати свою безпеку, наприклад, встановити особистий кордон, який не дозволить іншим користувачам підійти надто близько.

WebPurify, яка раніше спеціалізувалася на модерації онлайн-тексту та зображень, з початку минулого року пропонує послуги для метавсесвітів і нещодавно найняла колишнього голову відділу довіри та безпеки Twitter Алекса Попкена, щоб він допоміг очолити цю роботу.

«Ми з’ясовуємо, як контролювати VR та AR, що є своєрідною новою територією, тому що доводиться дивитися на людську поведінку», — каже Попкен.

Модераторів вчать реагувати пропорційно: порушнику можуть відключити звук, відключити від гри або повідомити про його поведінку компанію.

WebPurify пропонує модераторам різні ресурси, зокрема цілодобовий доступ до консультацій з питань психічного здоров’я.

Їм доводиться стикатися зі складними ситуаціями, і може знадобитися багато здорового глузду та емоційного інтелекту, щоб визначити, яка поведінка доречна. Так, у різних культур та різних користувачів очікування щодо міжособистісного простору та фізичних привітань можуть відрізнятися, а у різних спільнотах може діяти різна політика.

Все це відбувається під прикриттям, щоб користувачі не змінювали своєї поведінки, дізнавшись, що взаємодіють із модератором. «‎Ловити поганих хлопців — це швидше надихає, ніж засмучує», – каже Екканті.

Модерація також означає нехтування приватністю користувачів.

Ключова частина роботи – «відстежувати все», каже Екканті. Модератори записують все, що відбувається в грі, з моменту підключення до виходу, у тому числі розмови між гравцями. Це означає, що вони часто підслуховують, навіть без відома користувачів, хоча компанії заявляють, що це не стосується повністю приватних розмов віч-на-віч.

«Якщо ми хочемо, щоб платформи відігравали важливу роль у забезпеченні безпеки, це може призвести до деяких порушень конфіденційності, які можуть не сподобатися користувачам», — каже Хуан Лондоньо, аналітик з Фонду інформаційних технологій та інновацій у Вашингтоні.

Втім, влада США висловила скептицизм щодо політики Meta. Сенатори з Массачусетсу та Коннектикуту написали відкритий лист Марку Цукербергу з проханням переглянути рішення щодо зниження вікових обмежень. Колишній юрист Meta Делара Дерахшані також визнає, що забезпечення безпеки у метавсесвіті має бути більш прозорою.

Сам Екканті хотів би, щоб люди розуміли: його робота може бути досить цікавою, але вона по-справжньому важлива.

«Як модератори, ми намагаємося створити найкращий досвід для всіх, щоб їм не довелося переживати травми. Ми як модератори готові прийняти це і знаходимося тут, щоб захистити інших. Ми можемо стати першою лінією оборони», — каже він.

БІЛЬШЕ ЦІКАВОГО:

Джерело: MITechnologyReview

Читайте также:

10 найстрашніших комп’ютерних вірусів в історії

Google запускає в Україні онлайн-гру «Interland: Безпека дітей в Інтернеті»

Як влаштований інтернет та чому він називається глобальною мережею

Уряд Південної Кореї запустив метавсесвіт Metaverse Seoul. Що з цього вийшло?