Зараз безпілотним автомобілем уже нікого не здивуєш. Здається, ось-ось настануть часи, коли роль водія за кермом повністю виконуватиме штучний інтелект. Чи готове людство до таких змін? Як повинні працювати безпілотні авто? Чи повинні вони бути запрограмовані насамперед на те, щоб дбати про життя та здоров’я пішоходів, чи навпаки, піклуватися про безпеку пасажирів? Останнім часом вкрай популярним інструментом для з’ясування моральних аспектів використання таких автомобілів став уявний експеримент, який називають проблемою вагонетки.
Уявіть ситуацію: вагонетка з’їхала з колії та мчить у напрямку, де п’ятеро осіб виконують ремонтні роботи. Вони однозначно загинуть, якщо вагонетку не перевести на іншу колію, але на цій колії також працює одна людина. Натиснувши на стрілку, ви вб’єте одного робітника, а залишивши все як є, вкоротите віку аж п’ятьом. Якими будуть ваші дії? Власне, це найпопулярніша з версій згаданого уявного експерименту. Постає питання, чи доречно застосовувати популярну у 1970-х роках філософську задачу у сучасних умовах та намагатися з її допомогою розв’язати морально-етичні дилеми використання штучного інтелекту.
Уявний експеримент vs. реальність
Науковець, автор та редактор видання The Atlantic Іен Богост (Ian Bogost) вважає, що задача про вагонетку не враховує усіх особливостей функціонування безпілотних автомобілів. Застосовуючи її для пошуку відповідей на питання щодо моральних та правових аспектів використання таких авто, ми ризикуємо отримати однобокі висновки.
Завдяки філософу Джудіт Джарвіс Томсон (Judith Jarvis Thomson), уявний експеримент про вагонетку набув неабиякої популярності у середині 1970 років, проте саму проблему ще у 1967 році сформулювала британка Філіппа Фут (Philippa Foot). Насамперед вона намагалася дослідити різницю між тим, що людина має намір зробити і тим, які наслідки вона передбачає. Вчена була переконана, що необхідно розуміти різницю між дією та бездіяльністю, уникненням шкоди та наданням допомоги. Отже, центральною темою дослідження Філіппи Фут був саме моральний аспект поведінки.
Але коли мова йде про майбутнє безпілотних транспортних засобів, мораль та етика зазвичай залишаються поза увагою. Зважаючи на стрімкий розвиток технологій, людей переважно цікавлять саме наслідки використання робототехніки. У філософії такий підхід називається консеквенціоналізмом. Наразі головним аргументом на користь безпілотних авто є підвищення рівня безпеки на дорогах. У 2016 році у автокатастрофах в Америці загинуло понад 37 тис. осіб. Оскільки у 94% випадків причиною аварії стала помилка водія, заміна людини на машину має очевидну перевагу для суспільства. Але, зосереджуючись виключно на наслідках, ми ризикуємо залишити осторонь моральні аспекти функціонування робокарів.
Нещодавно у штаті Арізона безпілотник Uber збив 49-річну Елейн Хертцберг (Elaine Hertzberg), і жінка померла у результаті цього нещасного випадку. Існує думка, що невдовзі завдяки безпілотним авто кількість смертей пішоходів значно скоротиться або й взагалі дорівнюватиме нулю і що кожна смерть – це, звичайно, ж велике горе, але якщо завдяки безпілотним автомобілям можна буде запобігти тисячам летальних випадків, одну загибель все ж таки можна виправдати. З цієї позиції смерть Елейн Хертцберг нічим не відрізняється від загибелі численних пішоходів, збитих живими водіями.
Етична статистика та моральна машина
Можливо, з точки зору статистики це так і є, але з точки зору етики – навряд чи. Щоб застосувати задачу про вагонетку до цього ДТП, треба бути цілком впевненими у тому, що транспортний засіб бачив пішохода, тож у цьому випадку проблема вагонетки – не надто влучний інструмент. До того ж, вона не враховує всіх обставин, які можуть виникнути у реальному житті. Сама авторка експерименту говорила, що насправді вагонетка навряд чи переїхала б людину, бо потенційна жертва могла зійти з колії перед зіткненням. У будь-якому разі необхідно брати до уваги усі чинники та фактори, що можуть вплинути на наслідки, та врахувати усі можливі реакції, ситуації та фактори.
Саме таких підхід використовується на онлайн-платформі Moral Machine, яку розробили інженери з MIT. Тут люди можуть поділитися своїми думками про те, як в тих чи інших ситуаціях повинен діяти штучний інтелект. Це цілком відповідає принципам функціонування систем машинного навчання, адже тут ми маємо великий набір даних. Але існує також інший підхід, який передбачає розгляд певних проблем з точки зору найбільш підходящого морального аспекту.
Заплутана ситуація
У своєму досліджені Філіппа Фут пропонує приклад, який більше пасує до ситуації, що сталася в Аризоні, ніж проблема вагонетки. Уявіть, що в лікарняній палаті знаходиться 5 пацієнтів. Їх можна вилікувати, запустивши до приміщення певну речовину, проте водночас у сусідній палаті, де перебуває пацієнт, якого не можна рухати, станеться витік отруйних газів. У цьому випадку розрахунок наслідків такий самий, як і у проблемі вагонетки, проте для багатьох людей висновки не настільки очевидні.
У задачі про вагонетку перед водієм постає тяжкий вибір: він мусить вирішити, кому жити, а хто має померти. У прикладі з лікарнею і газом лікар стикається із вибором між наданням допомоги і завданням шкоди. Ситуація з безпілотником Uber ще більш заплутана, оскільки ні виробник, ні водій, що керує транспортним засобом у автономному режимі, ні законодавець, який має врегулювати відповідні відносини, не знає напевно, яку шкоду можуть завдати машини зі штучним інтелектом. З огляду на це, наразі проблема полягає не стільки у тому, що буде завтра, скільки у недостатньому правовому регулюванні та браку інформації, яку надають про свою продукцію виробники безпілотних транспортних засобів. Однак людей, на жаль, ці теми цікавлять менше, ніж вагонетка, що ось-ось когось переїде.
Моральна удача
Якщо ми хочемо використати ДТП у Аризоні як прецедент, можливо, краще розглядати його як приклад моральної удачі – концепції, запропонованої філософом Томасом Нагелем (Thomas Nagel). Уявіть, що людина сіла за кермо у нетверезому стані, але дісталася до місця призначення, не спричинивши аварійної ситуації на дорозі. Інша, сівши за кермо напідпитку, вбила дитину, яка раптово вибігла на дорогу. На перший погляд здається, що друга особа заслуговує на суворіший суспільний осуд, ніж перша, проте в обох випадках водії добровільно вчинили однакові дії. Різниця лише у наслідках.
За словами Іена Богоста, жінка, яка загинула під колесами безпілотного авто, навряд чи є виправданою жертвою заради більшого блага. Натомість він стверджує, що переваги безпілотних автомобілів, зокрема безпечність, можуть бути прикладом моральної удачі, яка полягає у тому, що таким авто більше щастить уникати ДТП.
Коли мова йде про моральну удачу у випадку з безпілотниками, треба розуміти, наскільки свідомо вчиняються ті чи інші дії. Чи водій Uber передбачав та розумів наслідки власних дій? Чи може людина втрутитися, коли авто рухається в автономному режимі? Чи винна служба Uber у цій ситуації, враховуючи, що місцева влада штату Аризона дозволила проводити такі експерименти на дорогах, де рухаються інші транспортні засоби та пішоходи? Для вирішення етичних проблем не існує універсальної формули, яку можна застосувати до будь-яких ситуацій. Розглядаючи проблему вагонетки як зручний підхід до осмислення роботи безпілотних автомобілів, ми не беремо до уваги складніші етичні аспекти та умови, у яких працюють ці авто.
Уявні експерименти використовуються для оцінювання можливих результатів та переосмислення усталених концепцій. Але це не готовий рецепт, що підкаже, як саме потрібно діяти. Дехто помилково вважає, що безпілотні авто – це надійна технологія, яку вже зараз можна сміливо використовувати. Проте від такого благоденства нас відділяють роки наполегливої праці. Тим часом виробники безпілотних авто повинні надавати більше інформації про власну продукцію, законодавцям слід нарешті зайнятися нормативно-правовим регулюванням, а суспільству – серйозно замислитися про моральні та правові аспекти використання безпілотних автомобілів.
БІЛЬШЕ ЦІКАВОГО:
За матеріалами The Atlantic, переклад підготувала Юлія Дерев’янко, спеціально для «Блог Imena.UA»