Инженер обучил робота этичности, но тот не понимает – зачем

Инженер из Бристольской компании Robotics Laboratory, Великобритания, создал «этическую ловушку» для робота, которая обучает машину этичности.

В ходе экспериментов инженер Алан Уинфилд (Alan Winfield) запрограммировал робота, чтобы тот предотвратил падение «человека» в яму, воспользовавшись знаменитым «Первым законом робототехники» Айзека Азимова (Isaac Asimov).

Напомним, суть закона заключается в следующем: машина ни в коем случае не может позволить, чтобы человеку был причинён вред.

Задача была выполнена: едва «человек» двинулся в сторону ямы, робот бросился, чтобы убрать его с опасного пути. Затем учёный добавил второго «человека», который двигался к яме одновременно с первым, вынуждая робота выбирать, кого спасать.

Иногда машина спасала одного из «людей», позволяя второму погибнуть, изредка успевала спасти обоих. Однако, в 14 случаях из 33 робот «впадал в ступор» и терял столько времени в размышлениях, что оба «человека» успевали упасть в яму.

Промедления машины связаны с тем, что, несмотря на то, что робот может спасать других в соответствии с запрограммированным алгоритмом поведения, он не понимает причин своих действий.

Алан Уинфилд практическим путём доказал, что точного ответа на вопрос «можно ли обучить робота этике?» пока нет. Но по мере дальнейшей интеграции роботов в повседневную жизнь человечества на этот вопрос обязательно нужно дать ответ.

К слову, эксперты ожидают, что появление на дорогах беспилотных автомобилей поднимет целый ряд этических проблем, среди которых вопрос ответственности за ДТП – далеко не первый и не единственный.

Читайте также:

5 технологічних трендів, що будуть панувати у 2019 році

Держать в руках, но не использовать — исследование людей и смартфонов

Розуміння нуля, як еволюційна перевага — тепер і для бджіл

Робототехника, AI и блокчейн в современной фармацевтике