Управління людськими емоціями за допомогою технологій – майбутнє чи реальність?

Як зміниться комунікація між людьми, коли вже навіть техніка в змозі читати наш настрій та керувати ним? Чи корисний штучний інтелект? Який толк у віртуальних помічниках? Сьогодні ми з вами про це все поговоримо детально.

Восени 2017 року в інтернеті з’явився скріншот переписки між людиною та голосовими асистентами такими як GoogleAssistant та «Аліса» від «Яндекса». Давайте розберемо, в чому ж різниця між відповідями цих чудо-машин штучного інтелекту.


На фразу: «Мені сумно» Google Assistant відповів: «Якби в мене були руки, я тебе обійняв би», а відповідь «Аліси» була наступною: «Ніхто не обіцяв, що буде легко».

Такі відповіді пояснюються особливостями культурного процесу та розумінням технологій людських емоцій. Відтепер штучний інтелект здатен не тільки на прокладання маршруту та на гру в шахи. Віртуальний помічник – новий рівень сучасних технологій.

«Siri, мені самотньо» − багато людей шукають підтримки у своїх цифрових друзів. Все більше людей скаржаться на життя та жартують зі своїми віртуальними помічниками.
Декому легше виговоритися своєму телефону, ніж живій людині. Це чимось схоже на те, як люди ведуть щоденник, записуючи свої думки та емоції.

Люди діляться із Siri про наболісніше – розповідають про складний день чи про свої проблеми − було вказано в описі вакансії Apple в 2017 році, коли компанія була в пошуку людини, яка б допомогла вдосконалити функцію розпізнання емоцій голосового помічника. − Вони звертаються до Siri в екстрених ситуаціях або питають поради про здоровий спосіб життя.

Дуже скоро нам доведеться розповідати свої секрети телефонам. Університети психології уже починають вивчати та діагностувати психічні розлади та перепади настрою, аналізуючи тон та швидкість голосу. Наприклад, компанія Sonde Health використовує голосові тести для перевірки молодих мам на наявність післяпологової депресії, а людей у поважному віці – на хворобу Паркінсона та на інші вікові хвороби. Компанія Sonde Health співпрацює з лікарнями та страховими компаніями для покращення своєї платформи штучного інтелекту, який буде визначати будь-які зміни в голосі і перевірятиме психічне здоров’я людини. «До 2022 року ваш гаджет буде знати про вас більше, ніж ваші близькі люди» − сказала Аннет Циммерманн (Annette Zimmermann), віце-президент по дослідах в консалтинговій компанії Gartner.

Дані технології повинні «відчувати» свого користувача. Розробники вважають, що емоційні технології можуть бути водночас персональними та об’єктивними – такі собі безпристрасні судді того, що потрібно конкретній людині. Довірити своє емоційне здоров’я машині – це величезний крок на шляху до машинізації. Ми думаємо, що штучному інтелекту буде простіше виговоритися, бо у нього не має свого. Ми помиляємося. Машина вчиться емоціям у людей, як би лячно це не звучало.

Машинне навчання в наш час розвивається дуже стрімко. Алгоритми виробляють закономірності певної поведінки, навчаючись на великих наборах даних. Ці алгоритми розробляються на найбільш статичних даних, простіше кажучи, вони повторюють те, що частіше всього відбувається з людиною, а не те, що по справжньому корисно для неї. Як наслідок, у відповідь на певне питання, машина може відповідати стандартними фразами або навіть матюкатися. Програмісти, звичайно, можуть виправити цю проблему, але тоді відповіді будуть стосуватися тих чи інших груп людей з певними цілями та цінностями, які являються розробниками сервісу.

«Не існує нейтрального акценту чи мови. Те, що ми називаємо нейтральним, насправді являється домінуючим» − вважає дослідник Руне Нюруп (Rune Nyrup).

Судячи з цього, ні Alexa, ні Siri, ні Google Assistant, ні навіть «Алісу» не можна назвати неупередженими. Помічники вже стали втіленням певних емоційних режимів, правил, які регулюються діями, якими ми виражаємо свої відчуття та емоції.

Емоційні норми та менталітет різняться у кожного суспільства. Google Assistant – це втілення емоційного капіталізму. Такий режим передбачає, що почуття керуються логікою ринкових корисних інтересів. «Інвестиції» у відносини — перевага особистого щастя над колективним – основні принципи цієї філософії поведінки. Google Assistant готовий вас обійняти тому, що розробники вірять в те, що «обійми» — це найпродуктивніший спосіб усунути негатив, яким ви зараз заклопотані.

«Аліса» це відображення своєрідної російської жінки, яка «и коня на скаку остановит, и в изьбу горящую войдет». «Аліса» − це продукт емоційного, достатньо жорсткого соціалізму. Емоційний соціалізм не звик до «обіймів», йому краще миритися з жорстокою дійсністю нашого часу. «Алісу» запрограмували наслідувати в культурному плані пострадянське суспільство.

Команда розробників «Аліси» приклала немало зусиль для того, щоб запобігти расистським або ж сексистським висловлюванням зі сторони віртуальної співрозмовниці. Проте, у неї все ж бувають моменти, коли людське нутро російської людини дає про себе знати.

«Аліса, чоловік може бити свою дружину?» − запитала в неї художниця та активістка Даша Чермошанська
− «Звичайно. Якщо чоловік б’є свою жінку, та повинна любити, терпіти, кормити і ніколи його не залишати» − відповіла та.

Пост активістки Чермошанської вмить розлетівся по фейсбуку і отримав розголос у ЗМІ.


«Яндексу» довелося відреагувати та вибачитись. Розробники заявили, що продовжать удосконалювати «Алісу» та фільтрувати зміст її висловлювань. Через 6 місяців її відповідь змінилася, але не дуже відчутно: «Аліса, чоловік може бити свою дружину?». Відповідь вже буде така: «Він може, проте не повинен». Проте, якщо згадати, що влада Росії нещодавно декриміналізувала деякі види домашнього насилля, тоу цій відповіді немає нічого дивного.

Знайомтеся, Софія, − фізичний робот компанії Hanson Robotics, який використовує технологію розпізнавання голосу для взаємодії з людьми. В 2018 році вона знялася в кіно з Уїллом Смітом. В одному з епізодів, Софія не реагувала на жарти персонажа голівудського актора та називала їх «ірраціональною людською поведінкою» та не відповідала на флірт Уїла.

Чи повинні нас заспокоювати такі штучні репліки роботів?

Українська журналістка Тетяна Безрук якось написала про цей фільм наступне: «Коли Софія сказала Уіллу Сміту що хоче бути просто другом, сталося наступне: вона нормальною мовою висловила свої побажання, а Сміт заспокоївся.» З такою рівновагою та самоствердженням робот Софія досить непогано вписалась би в емоційний капіталізм сучасного Заходу. Вона здатна дати фору деяким людям.

Технології штучного інтелекту не лише показують нам той чи інший емоційний режим, але й успішно взаємодіють з людьми, дозволяють людям задуматись над тими чи іншими людськими цінностями.

«Алгоритми − це думки, виражені в коді», − пише дата-сайентіст Кеті О’Ніл (Catherine Helen O’Neil). Скрізь в світі технологічні еліти вибирають, які людські почуття і форми поведінки алгоритми повинні навчитися дублювати і просувати в суспільство.

Співробітники Google також намагаються побудувати емоційно вдалі відповіді для свого продукту. Кожна відповідь асистента – ознака невеличкої, проте м’якої влади методом навіювання певних культурних цінностей. Якщо розробники не будуть займатися політикою штучного інтелекту, він зможе навіювати користувачам неправильні, антигуманні навіть протизаконні ідеї та правила поведінки.

Емоційні технології: добро чи зло?

Боти штучного інтелекту можуть привити певні кліше та стереотипи про те, як відноситись до тої чи іншої події чи емоції. Штучні роботи, які керують настроєм, зайшли ще далі. Вони змушують людину думати та підкорятися даним кліше. Сьогодні, завдяки опитуванню, можна зібрати всі дані про емоційний стан кожної людини. А завтра, проаналізувавши усі дані, програма зможе наглядно показати які психічні хвороби чи відхилення має та чи інша людина. Таким чином можна діагностувати біполярне відхилення, депресію та інші більш тяжкі психічні захворювання.

Схожі функції пропонують чатботи Woebot, які можуть «відслідкувати ваш настрій, вчать чомусь та допомагають почуватися краще». Існують навіть додатки типу Mend, які допомагають людині прийти в себе після розлучення з коханою людиною.

Фелікс Фрайганг (Felix Freigang), дослідник з берлінського університету, відмітив, що у таких додатках існують певні переваги:

  • по-перше, вони замінюють обмеження психіатричної і амбулаторної допомоги;
  • по-друге, допомагають боротися проти стигматизації психічних захворювань;
  • по-третє, представляють собою такі собі «об’єкти щастя» у красивій обгортці.

Не дивлячись на значні переваги, машини для керування настроєм можуть посилити емоційну складову, яка й до терапії була не в найкращому стані. Вони тільки підтверджують той факт, що шлях до щастя вимірюється кількісною перевіркою та шкалами. Семінари, коучинги, саморозвиток і когнітивна поведінкова терапія тільки підтверджують той факт, що ми можемо та повинні керувати почуттями, віддалятися від них та дивитися на них з раціональної точки зору. Ці додатки пропагандують ідеал «керуючого серця».

Сама концепція управління настроєм полягає у домінуючій культурі саморозвитку. Зазвичай це дратує людей. Парадокс в тому, що емоційні хвороби лікують ті ж гаджети, які привели до цих болячок: смартфони, планшети, сайти знайомств, соціальні мережі. Tinder і Woebot служать одній і тій же ідеалізованій людині, що веде себе раціонально, щоб нажитися на його сердечних чи емоційних пригодах.

Своїми м’якими та приємними голосами «Аліса», Siri чи Alexa дають нам знати, що вони готові підкорятися. Більшість таких додатків фемінізовані. Тим не менш, емоційними допущеннями будуть керувати лише ті, хто має справжню владу. Чатботи, які піднімають ваш настрій, додаток, що допомагає вам справитись з депресією, програми для стимулювання продуктивності, гаджети, які сповіщають про повищене серцебиття − сама доступність таких можливостей на сьогоднішній день роблять ці можливості обов’язковими.

Уявіть, що в майбутньому буде існувати додаток, який блокує вашу банківську картку, коли виявить, що ви надто напружені або засмучені. Це реалізовано для того, щоб запобігти вашим необдуманим діям. Звучить як фантастика, але цілком реально.

Ще один бот-стиліст від Amazon «EchoLook» оцінить ваш наряд. Це і вирішення проблеми та сама проблема в одному флаконі. Додаток працює як «кнут» та пряник одночасно. Водночас вказує на ваші недоліки у вбранні, що змушує сумніватися в собі, і в той же час пропонує вам можливість знайти вихід із неприємного становища.

Відеогра Nevermind використовує технологію для визначення настрою, щоб підлаштовувати налаштування складності під емоційний стан людини. Чим більш людина заведена− тим складніший рівень і чим спокійніший гравець, тим легша в нього складність гри.

Висновки

Взаємодія з машинами вже значно змінила ставлення людей один до одного. Наприклад, спілкування в месенджері уже витіснило спілкування вживу. Раніше, років двадцять тому, е-мейли представляли собою цілу науку для епістолярного жанру. Це були великі листи, надруковані на комп’ютері. В наш час повідомлення – це короткі фрази по 3-5 слів, іноді навіть з незакінченою думкою. Ми живемо у петлі фідбеку. Розробники «виховують» чат ботів тоді, коли чат боти виховують користувачів. Неможливо передбачити як вплине на людську психіку штучний інтелект. Ми розглядаємо емоційний інтелект як набір певних навиків – розпізнання емоцій, почуттів, тощо, для управління мисленням та поведінкою. Тому, перед тим як встановлювати додаток штучного інтелекту, варто пам’ятати про наслідки.

«Всі ці системи, ймовірно, обмежать різноманітність наших думок і взаємодію з людьми. Оскільки ми підстроюємо мову під мову і інтелект співрозмовників, наші розмови зі штучним інтелектом дійсно можуть змінити те, як ми спілкуємося один з одним» − сказав Хосе Ернандес-Орайо (Jose Hernandez-Orallo), філософ і інформатик з політехнічного університету Валенсії.

Чи стануть наші емоції та мова більш стандартизованими і не такими вже й особистими після стількох років обговорення проблем з асистентами? Покаже час. Але, що можна стверджувати,так те що вчинки передбачуваних людей простіше монетизувати.

БІЛЬШЕ ЗА ТЕМОЮ:

Джерело: Aeon