5 простих кроків, щоб зробити штучний інтелект силою добра

Штучний інтелект може використовуватися в благих цілях, наприклад для видалення забороненого контенту з інтернету або для швидшого виявлення наркотиків. Але водночас у цій технології є і негативні прояви, наприклад некоректні висновки про те, кому дати кредит, кого взяти на роботу або позбавити її й навіть про те, кого відправити до в’язниці.

Видання Fast Company опитало політиків, бізнес-експертів, науковців та активістів і сформулювало п’ять кроків по перетворенню штучного інтелекту в однозначно позитивне явище.

1. Створити перевірче відомство

Алгоритми впливають на наш світ потужними, але не завжди очевидними способами. Роботизовані системи ще не замінюють солдатів, як в «Термінаторі», але замість цього вони повільно витісняють бухгалтерів, чиновників, юристів і суддів, які приймають рішення про штрафи та покарання. Попри розвиток, штучний інтелект продовжує використовувати дитячу логіку, засновану на упереджених або неповних даних.

Тому є безліч підтверджень таких, як розслідування ProPublica 2016 року, яке показало, що програмне забезпечення для правоохоронних органів США переоцінювало ймовірність рецидиву у чорношкірих обвинувачених, що призводило до більш суворих вироків. У серпні цього року відділення ACLU (American Civil Liberties Union, Американський союз захисту громадянських свобод) в Північній Каліфорнії протестувало Rekognition, систему розпізнавання облич від Amazon, на фотографіях членів законодавчих зборів Каліфорнії. Алгоритм помилково виявив 26 зі 120 осіб у поліцейській базі з 25 тисяч знімків. Аналогічна ситуація сталася в минулому році, коли ACLU проводив експеримент з фотографіями законодавців федерального рівня.

Системи, які приймають рішення такої міри важливості, становлять найбільшу загрозу для суспільства і вимагають ретельного контролю.

«Я вважаю, що у нас повинно бути відомство на зразок FDA (Food and Drug Administration, Управління з санітарного нагляду за якістю харчових продуктів і медикаментів), яке буде тестувати програми до їх запуску в експлуатацію», — каже соціолог з Гарварду Мутале Нконде.

Нконде втілює цю ідею в життя, допомагаючи в створенні закону про відповідальність алгоритмів. Якщо його схвалять, то компанії, що використовують штучний інтелект будуть зобов’язані доводити, що їх системи «точні, справедливі, неупереджені, конфіденційні та безпечні».

2. Доступно розповісти про роботу штучного інтелекту

Отримати просте пояснення роботи штучного інтелекту — це не просто примха політиків, які не розбираються в цій технології, вважає фахівець з даними й правозахисник Джек Пулсон.

«Насправді вам не потрібні глибокі пізнання в цій області, щоб отримати уявлення про багатьох з її проблем», — переконаний він.

На думку Пулсона, для розуміння роботи штучного інтелекту суспільству необхідний доступ до всієї системи — необробленим даним для машинного навчання, алгоритмам, які їх аналізують, і моделям прийняття рішень, які з’являються. «Я думаю, що заяви про нездатність звичайних людей розібратися в цьому невірні», — говорить експерт. Він зазначає, що тестування Rekognition від Amazon, проведене ACLU, добре демонструє можливість неспеціалістів оцінити роботу штучного інтелекту.

Показати себе надійним постачальником систем зі штучним інтелектом за допомогою роз’яснень їх роботи намагається IBM. У серпні цього року компанія випустила програмне забезпечення з відкритим вихідним кодом, яке дозволяє зрозуміти, як алгоритми роблять вибір. А роком раніше IBM представила рішення, яке шукає помилки в наборах даних для навчання AI-систем, що визначають кредитний рейтинг.

3. Цінувати думку людини вище висновку штучного інтелекту

Експерти відзначають, що штучному інтелекту ще належить пройти довгий шлях. Частково проблема полягає в тому, що штучний інтелект все ще не дуже інтелектуальний, говорить Майкл Селлітто, заступник директора Інституту AI Стенфордського університету.

«Якщо ви витягнете алгоритм зі звичного для нього контексту, то він швидко зазнає невдачі», — зазначає він.

Сюди ж відноситься некоректна робота штучного інтелекту через навчання на упереджених або неповних даних — або даних, що не готують систему до оцінки нюансів. Конгресмен Ро Ханна нагадав, що Twitter заблокував обліковий запис політика Мітча Макконнелла за публікацію відео з «погрозами насильства». Але річ у тому, що в ролику були показані загрози противників Макконелла, а сам він засуджував таку поведінку, а не заохочував її.

Ханна переконаний, що через помилки штучного інтелекту остаточне рішення завжди повинен приймати людина. У випадку з блокуванням Макконнелла «виявилося, що контекст мав значення», каже він. (Однак до кінця неясно, що стало причиною цього блокування — думка алгоритму, модератора-людини або і те, і інше).

Але вибір людей, що приймають рішення, теж має значення. Наприклад, в експертній раді Інституту AI Стенфордського університету переважають колишні або нинішні глави титанів штучного інтелекту з Кремнієвої долини. Лідерам галузі, які зробили ставку на цю технологію, ймовірно, буде важко приймати справедливі рішення, які принесуть користь всім, а не тільки бізнесу.

4. Зробити конфіденційність властивістю за замовчуванням

В основі багатьох з цих проблем лежить конфіденційність — цінність, якої давно не вистачає в Кремнієвій долині. Девіз засновника Facebook Марка Цукерберга «рухайся швидше і ламай речі» — це фактично опис розвитку штучного інтелекту, втілене в колекції даних про клієнтів самого Facebook. Частина претензій Федеральної торгової комісії до соцмережі, за якими наступив штраф в $5 млрд, полягала в тому, що вона недостатньо ясно повідомляла користувачам про використання технології розпізнавання облич в завантажених фотографіях. Зараз власники облікових записів за замовчуванням не беруть участі в цьому процесі — для запуску розпізнавання потрібно дати окрему угоду. І це повинно бути стандартом для всієї технологічної індустрії.

«Нам потрібна нормативно-правова база з дуже конкретними умовами використання даних», — підкреслює Ханна.

В ідеальному світі деякі дані не повинні збиратися ні в якому разі, особливо без згоди людей. Нконде працює ще над одним законопроектом про штучний інтелект, який забороняє використовувати розпізнавання облич у сфері соціального житла. Берні Сандерс закликав відмовитися від цієї технології в поліції. Каліфорнія готова прийняти закон, який припинить розпізнавання облич на записах з камер відеоспостереження. Влада Сан-Франциско, Окленда і Сомервілл (штат Массачусетс) вже заборонили подібні системи й, ймовірно, їх прикладу послідує все більше міст, хоча такі рішення все ще залишаються винятками з правил.

Технологічні компанії часто стверджують, що повинні мати право вільно використовувати анонімні дані. Однак відновити особисту інформацію з таких записів досить легко. Дослідження вчених з Гарварду показало, що 87% американців можна ідентифікувати по унікальній комбінації дати народження, статі та поштового індексу. А у 2018 році дослідники MIT деанонімізували жителів Сінгапуру, проаналізувавши дані про поїздки в громадському транспорті та виклики з мобільних телефонів.

5. Конкурувати, не порушуючи громадянські права

Питання конфіденційності займає центральне місце в технологічній суперечці між Китаєм і США. Спрощений погляд на машинне навчання звучить так: чим більше даних, тим точніше алгоритм. Штучний інтелект в Китаї виграє від безперешкодного збору інформації про 1,4 млрд жителів, тому здається сумнівним, що країна з більш строгими вимогами до конфіденційності може з ним конкурувати.

Але перевага Китаю пов’язана з грубими порушеннями прав людини, такими як стеження за уйгурами — національною меншиною, які сповідують іслам. Всюдисущі камери з розпізнаванням облич дозволяють відстежувати людей, а аналіз їх соціальних відносин використовується для оцінки їх небезпеки для держави.

За словами тайваньсько-американського експерта по штучному інтелекту і підприємця Кай-Фу Лі, який керує китайською венчурною компанією Sinovation Ventures, китайці відмовляються від приватності набагато простіше, ніж американці.

«Люди в Китаї з більшою готовністю дозволяють оцифровувати свої обличчя, голос і вибір покупок», – пише він у своїй книзі «Наддержави штучного інтелекту: Китай, Кремнієва долина і новий світовий порядок».

Це може змінитися. Великий збір даних вірусним китайським додатком Zao викликав обурення не тільки на Заході, а й в Китаї, що змусило Zao оновити свою політику.

Крім того, країна з найбільшою кількістю даних не виграє автоматично. «Це скоріше перегони за людський капітал, ніж за яке-небудь конкретне джерело даних», — каже Селлітто зі Стенфордського Інституту AI. Хоча захист недоторканності приватного життя трохи заважає збору даних, зате він допомагає залучати таланти.

За даними дослідження, проведеного Інститутом Полсона, в США найбільша частка видатних дослідників штучного інтелекту, і більшість з них — іноземці. Можливо, найсильніше розвитку штучного інтелекту в США заважає не масив даних Китаю, а нова міграційна політика, яка ускладнює переїзд обдарованих розробників з інших країн.

«Кінець кінцем, цінність громадянських свобод приверне в США найталановитіших людей. Тут можлива та свобода творчості та підприємництва, яку не можуть запропонувати авторитарні суспільства», — робить висновок Ханна.

БІЛЬШЕ ЦІКАВОГО:

Джерело: Medium

Читайте также:

Голограма яку можна чути й відчувати

Як багатозадачність руйнує наше життя та що з цим робити?

Штучна шкіра зможе передавати ваші емоції гаджетам

Темна сторона голосових помічників