Роботы — война и этика для машин

Во все времена люди спорили, когда отнимать жизнь у человека может быть допустимо, а когда нет. Как будто этого вопроса было мало самого по себе – технический прогресс неумолимо создаёт новый его аспект.

Допустимо ли, что один человек убивает другого? В разные времена в разных социальных группах и культурах были разные ответы на этот вопрос. Но допустимо ли, когда машина убивает человека? Причём, машина, разработанная только и исключительно для того, чтобы максимально эффективными средствами сокращать популяцию человечества. Необратимая поступь технического прогресса совсем скоро вынудит нас принимать соответствующее решение.

Пока что в мире существуют только неподвижные боевые роботы, самостоятельно принимающие решения по уничтожению врага. Но это лишь вопрос времени, когда такие машины начнут передвигаться. Неутомимые, неуязвимые, не ведающие страха, жалости и сожалений – пока военные мечтают о таких бойцах, учёные думают, как привить роботу-убийце хотя бы базовые этические принципы – научить выбирать между «злом» и «меньшим злом». Ирония ситуации заключается в том, что искусственный интеллект и вовсе не понимает, зачем это нужно.

 

Война роботов

Боевой робот, на первый взгляд – это замечательно. Любой политик сумеет без особых трудностей обосновать, зачем стране нужно сократить количество военных-людей, и увеличить количество боевых роботов. Меньше потерь в том или ином конфликте – ну кто может выступить против? Любой военный командир тоже вряд ли откажется от солдата, который всегда пользуется прицелом и поражает врага с максимальной точностью, не стреляет наугад, не требует зарплаты и провианта, не бежит с поля боя, беспрекословно соблюдает субординацию, и при необходимости готов открыть огонь хоть по детям с «калашом», хоть по беременным женщинам с поясами шахида. Неудивительно, что военные ведомства всего мира каждый день упорно работают над тем, чтобы выпустить на поля сражений боевые машины.

Однако эту стройную картину одним жёстким ударом рушит… этика. При чём здесь этика, когда нам нужна могучая машина смерти, способная без особых проблем перебить батальон пехоты? Оглянемся в недалёкое прошлое. В 1982 году реактивные самолеты были слишком быстры, чтобы сбить их на бреющем полёте, полагаясь на реакцию человека-оператора. Одной из наиболее эффективных систем противодействия им стал швейцарский комплекс Skyguard, в который входят 35-миллиметровые зенитки Oerlikon GDF. Его характерная особенность – этой системе не нужны никакие команды, чтобы открыть огонь. Она действует автоматически. Точно и эффективно, что было продемонстрировано в ходе Фолклендской войны. А ещё, снаряды сбили два аргентинских пассажирских самолета, случайно залетевших в зону, контролируемую системой.

В 2007 году в ЮАР роботизированные зенитные пушки Oerlikon GDF за 0,125 секунды убили на учениях девять «сослуживцев». Роботизированная система просто не отличает этически приемлемые действия (стрельбу по врагу) от неприемлемых – огонь по своим и гражданским. Таким образом, первая проблема боевого робота – его нужно научить отличать «своих» от «чужих». И если пехотному подразделению, которое поддерживает железный убийца, можно выдать какие-то маячки или радиоэлектронные метки для системы распознавания «свой-чужой», то как быть с гражданскими, случайно оказавшимися в зоне боевых действий? Допустим, всех гражданских каким-то волшебным образом эвакуировали, хоть это и невозможно. Но как быть с санитарами, капелланами, прессой, волонтёрами и всеми теми, кто так или иначе окажется в зоне боевых действий, но на «нашей» стороне?

 

Железный вопрос

Учёные неоднократно пытались «заставить» робота быть этичным. Один из последних подобных экспериментов был проведён в Великобритании. В ходе экспериментов человек запрограммировал робота на предотвращение падения «человека» в яму, воспользовавшись знаменитым «Первым законом робототехники» Айзека Азимова. Его суть заключается в том, что робот машина ни в коем случае не может позволить, чтобы человеку был причинён вред. Пока картина однозначна – робот, яма, человек – машина легко справляется с задачей. Едва учёные добавили к эксперименту двух людей, система начала сбоить. Робот был вынужден выбирать объект для спасения, оставляя другого человека умирать, и тратил на решение слишком много времени – в половине случаев позволил умереть обоим. Такие результаты вызваны тем, что робот попросту не понимает причины своих действий. Машину можно научить метко стрелять, но как втолковать ей, в каких случаях нужно открывать огонь, а в каких – нет, пока что непонятно.

Не будем забывать и о такой «приятной» особенности компьютеров, как подверженность сбоям. В лучшем случае боевой робот «зависнет» в разгар перестрелки или подорвётся на мине. В худшем – лишённый малейшего понятия об этике боевой робот покрошит в кровавые клочья своих создателей, и «огнём и мечом» пройдётся по союзникам, пока ценой огромных жертв его не удастся остановить. А жертв будет очень много, ведь робота создали для убийства вооружённых и хорошо обученных людей. Наконец, автономность робота-убийцы станет причиной огромного количества военных преступлений. Нет никаких способов доказать, что автономный робот расстрелял мирных жителей в силу приказа, отданного ему на базе, а не в силу «проблемы остановки» или банальных багов. Если хакеры сумеют взломать управляющие протоколы таких машин ещё на базе – предсказать результаты не сможет никто.

Может быть, ввиду таких пессимистичных прогнозов, и вовсе не стоит ждать, что человек передаст почётную обязанность стрелять в себе подобных в руки боевой машины? Это вряд ли. Например, армия Южной Кореи в 2014 году получила от корпорации Samsung нескольких роботов-убийц SGR-1 – сейчас они задействованы в подразделении на границе с Северной Кореей. Роботы могут уничтожать вражеских солдат на расстоянии свыше 2 км. SGR-1 оборудован комплексом датчиков тепла и движения и совершенной системой компьютерного наведения. На вооружении робота имеется 5,5-миллиметровый пулемёт и гранатомёт калибра 40 мм. Робот постоянно сканирует окружающую местность и в случае обнаружения потенциальной угрозы мгновенно информирует командный центр. А вот решение об открытии огня пока что принимает человек.