Аби зрозуміти, що насправді мають на увазі люди, ми часто читаємо між рядками. Сьогодні всі спілкуються в переважній більшості в соцмережах; текстові повідомлення містять в собі менше підтексту та ми розуміємо один одного гірше, ніж раніше.
Рана ель Каліобай (Rana el Kaliouby), засновниця компанії Affectiva, що вивчає машини аналізу емоцій, прагне вдосконалити інструменти, які ми використовуємо для спілкування та повернути комунікацію на попередній рівень. Як їй вдасться це зробити?
Сентиментальні технології
Каліобай разом з колегами розробляє базу даних, що складається з 7,7 млн зображень різноманітних облич, аби отримати загальну картину суспільної комунікації. Ідея полягає в тому, що якщо роботи навчаться читати між рядків, вони будуть краще задовольняти наші потреби у деяких випадках.
Уявіть собі, що ви не розумієте певну тему під час онлайн-навчання. В теорії камера має передавати комп’ютеру ваші емоції (у цьому випадку, погляд, що шукає та розчарування), а система буде реагувати на сповіщення належним чином. Можливо, вам запропонують більше прикладів чи простіші завдання.
У технології Каліобай існує декілька цікавих застосувань. Автоматизований аналіз емоцій допоможе людям з аутизмом, що не можуть інтерпретувати прихований зміст, краще розуміти спілкування. Пристрій, який нагадує Google Glass, буде сповіщати користувача, якщо той проігнорує важливий невербальний знак, таким чином він не буде розраховувати на одну лише інтерпретацію ситуації.
Каліобай також використовувала свій інструмент для визначення зацікавленості слухачів під час вебінарів. Зазвичай, онлайн-спікер не може визначити, чи уважно його слухають. Але за допомогою технологій він може визначити активність аудиторії та в результаті більш ефективно донести свою думку.
Маркетологи також використовували інструмент для тестування реакції людей на потенційну рекламну кампанію. Глядачі дивляться рекламу, в той час як технології Affectiva оцінювали їх реакцію. Такий аналіз допоміг маркетологам зрозуміти потенційний успіх своєї кампанії.
Погані потенційні застосування
Серед безкінечних можливостей емоційних технологій існує, звісно ж, і небезпечні технології. У поганих руках інструмент, що читає та інтерпретує емоції, може використовуватися для дискримінації, маніпуляції та отримання прибутку від даних про ваші відчуття. Каліобай разом з колегами, наприклад, поклялися, що не дозволить застосувати інструмент в цілях спостереження та забезпечення безпеки. Вони виконують своє обіцяння: Affectiva відмовлялися від багатьох вигідних угод з цих зображень; за словами Каліобай, майже кожен тиждень компанія відхиляє пропозиції інвесторів, що зацікавлені в розробці технології для відстежування.
Скарб даних
Передусім, користувачі повинні давати згоду на опрацювання своїх даних, якщо такі інструменти будуть використовувати повсюди, вважає Каліобай. Компанії зобов’язані давати людям інформацію про збір даних та пояснювати, в яких цілях це все робиться.
З зібраними даними можна зробити як хороші, так і погані речі й про це не потрібно забувати. Достатньо лише згадати численні скандали, що пов’язані з Facebook.
Якщо компанії почнуть збирати інформацію не лише про те, що ми читаємо або про що ми говоримо, але й про те, що змушує нас посміхатися та через що ми насуплюємо брови, корпорації будуть знати нас краще нас самих та це виглядає доволі проблематично.
Збираючи обличчя зі всього світу
Ще один потенційний недолік аналізу можна визначити в його неточності. Інструмент повинен спочатку «ознайомитись» з широким рядом облич з різних країн, аби показати правильні результати. Алгоритми, засновані на певних наборах даних, являються суб’єктивними та розпізнають лише ті обличчя, на яких вони частіше навчалися. Аби навчити машину читати усі емоції, необхідні великі бази даних з фотографіями людей з різних країн; крім того, варто розуміти значення виразу обличчя та жестів у різних культурах.
Наша міміка в якісь мірі диктується культурою. Каліобай разом з колегами виявили, що існує універсальний вираз обличчя – наприклад, посмішка – але культурне впливання посилює чи приглушає певні тенденції. Вони знають, наприклад, що латиноамериканці більш явно виражають свої емоції, ніж азіати, та те, що жінки посміхаються в основному частіше, ніж чоловіки, пояснює Каліобай. Їм потрібно все більше інформації.
«Прогрес технології замірюється у розмірі та різноманіття баз даних. Ми хочемо, аби наші алгоритми визначали більше емоцій», — говорить Каліобай.
Зрозуміти сарказм важче за все
В індустрії Каліобай існує такий собі «святий Грааль»: алгоритм, який ідентифікує сарказм. Сарказм – це надто тонкий тип повідомлення. Якщо інструмент зможе розпізнати такий завуальований інструмент мови, це буде вважатися тріумфом машинного навчання. Каліобай поки не знає, скільки часу піде на те, аби дійти до цієї цілі, але вона впевнена, що станеться це не швидко.
Засновниця Affectiva просить нас з обережністю відноситись до нових технологій. Вона робить все з любов’ю та хорошими намірами, але це ще не означає, що ми повинні їй довіряти.
«Я думаю, що боятися все ж варто. У будь-якої технології є як корисний, так і шкідливий потенціал», – вважає вона.
БІЛЬШЕ ЦІКАВОГО:
- Соцсети — и то, о чём они нам не говорят
- Сервис Datacoup платит пользователям за сбор данных из их учётных записей
- Евросоюз вводит сбор персональных данных авиапассажиров из других стран
Джерело: Quartz