Як Facebook використовує штучний інтелект для уникнення самогубств?

У березні 2017 року Facebook запустила амбіційний проект для уникнення самогубств за допомогою штучного інтелекту. Компанія розробила алгоритм, що аналізує характерні пости в соцмережах та виявляють ознаки депресивного стану.


Вже через рік, після обурення суспільства, спричиненого невдоволенням політикою приватності соцмережі Facebook, ідея про моніторинг та зберігання даних та про ментальне здоров’я кожного користувача без їх на те згоди викликало занепокоєння в експертів – чи можна довірити компанії зберігання найінтимніші моменти нашої підсвідомості?

Алгоритм аналізує майже кожен пост у Facebook та оцінює його від нуля до одиниці, де одиниця означає найвищу ймовірність до суїциду, – пояснює представник компанії.

Цей процес створення даних викликає занепокоєння в аналітика Наташі Дуарте (Natasha Duarte)

«Мені здається, це варто розглядати як особисту інформацію про здоров’я та самопочуття. Кожен, хто збирає особисті дані, повинен розуміти це та оперувати ними дуже обережно», – висловилась Наташа.

Закони про захист даних США на даний момент не застосовуються до інформації, що створює алгоритм Facebook, продовжує Дуарте. У США інформація про здоров’я людини захищена Законом про перенесення та підзвітності у сфері охорони здоров’я. Але він застосовується тільки до організацій які надають медичні послуги, такі як лікарні та страхові компанії.

Про протоколи приватності компанії Facebook нічого невідомо. Представник компанії повідомив, що Facebook зберігає інформацію з низькими оцінками ризику суїциду біля місяця, а потім їх видаляє. Але він не пояснив, як довго чи у якій формі зберігаються дані про великий ризик самогубства.

Чи може новий скандал з витоком інформації Facebook бути пов’язаним з даними про ваш ментальний стан здоров’я?

Ризики зберігання такої інтимної інформації дуже високі тому вона повинна знаходитися під суворим захистом та наглядом, стверджують експерти. Найбільша загроза – це витік особистої інформації.

«Питання не в тому, чи зламають їх, а у тому, коли саме це відбудеться» – говорить Метью Еріксон (Matthew Eriksson), співробітник Digital Privacy Alliance.

У вересні у Facebook заявили про те, що дані біля 30 млн користувачів попали до третіх сторонніх осіб, але промовчали про те, чи була серед них алгоритмічна інформація про схильність до суїциду?

Хто зможе бачити інформацію про стан вашого здоров’я?

Як тільки алгоритм визначить потенційний ризик по певному посту, він надсилає це повідомлення модераторам Facebook. Представники соцмережі не пояснили яким чином проходить навчання даних співробітників, але наполягає на тому, що вони добре підготовлені до аналізу такого контенту.

Однак, в огляді Wall Street Journal 2017 року модератори соцмережі Facebook характеризувалися як контрактні недостатньо освічені співробітники, які рідко залишаються в компанії на довгий час. Facebook же стверджує, що команда модераторів навчається за методиками, розроблених експертами у сфері самогубств.

На першому етапі аналізу, згідно з словами компанії, у модераторів немає доступу до імен людей, які опублікували пост. Якщо ж алгоритм відмічає потенційну неминучу небезпеку, то він надсилає його команді з великим досвідом, учасники якої працювали або в правоохоронних органах, або на гарячих лініях. У них існує доступ до інформації про ту чи іншу особу.

Інколи втручається й поліція

Потім відбувається наступне: або співробітники зв’язуються з користувачем, або з правоохоронними органами. Як говорить Дуарте, передача інформації про користувача правоохоронним органам являє собою найбільш серйозну загрозу конфіденціальності програми.

Facebook вказала на численні успішні дії поліції. Але нещодавній звіт The New York Times привів приклад випадку, коли після передачі інформації правоохоронні органи зв’язалися з людиною, у якої, за його словами, не було думок про самогубство. Поліція все одно повезла його до лікарні, аби пересвідчитися вже напевно.

Чому цей алгоритм під забороною в ЄС?

Facebook сканує за допомогою цього алгоритму пости на англійській, іспанській, португальській та арабській мовах, але компанія не перевіряє дописи в Європейському союзі.

Це пов’язано із Загальним регламентом по захисту даних, який вимагає, аби користувачі давали веб-сайтам особливу згоду на збір конфіденційної інформації.

В США ж Facebook розглядає свою програму як принципове питання відповідальності.

«Лікарі приймають критичне професійне рішення, коли людина знаходиться у небезпеці, а вже потім займаються активним рятуванням. Технологічні компанії, такі як Facebook, також повинні приймати рішення про те, чи ставити до відома правоохоронні органи для того, аби врятувати кого-небудь», – говорить Ден Рейденберг (Dr. Dan Reidenberg), експерт, що досліджує явища суїциду.

Але Дуарте вважає, що зрівнювати лікарів з IT-спеціалістами недоцільно.

Експерти в галузі конфіденційності згодилися з тим, що краще за все надати користувачу можливість вибирати брати участь в цих програмах чи ні. Або хоча б мати можливість виходити з них, проте на цей момент ці варіанти недоступні.

Експерти вважають, що в алгоритмі є хороший потенціал

Більшість експертів у сфері конфіденційності та охорони здоров’я згодилися з тим, що в алгоритмів Facebook існує великий потенціал.
Згідно з всесвітньою організацією охорони здоров’я, кожного року близько 800 тис. людей закінчують життя самогубством. Частіше за все це роблять підлітки та представники вразливих груп населення.

Facebook вважає, що попри ризик порушення конфіденційності, робота алгоритму все ж варта того.

Кайл Макгрегор (Dr. Kyle McGregor), директор Департаменту психічної етики Нью-Йорського університету, згодився з компанією.

«Високий рівень самогубств серед підлітків – насправді проблема, яка легко вирішується. Варто усвідомити, що ми дорослі відповідальні за те, щоб наші діти змогли пережити цей складний період та жити щасливо. Якщо ж в нас є можливість врятувати людину від самогубства, то воно того варте» – сказав Макгрегор.

БІЛЬШЕ ЦІКАВОГО:

Джерело: Businessinsider