Вопрос времени: когда террористы начнут использовать AI в качестве оружия?

Атака беспощадных и высокоинтеллектуальных машин на землян может стать реальностью в недалёком будущем. Относитесь к таким прогнозам скептически? Готовы вас разубедить.

Есть ли у вас экстренный план спасения на случай нападения роботов? Даже замерев на месте и прикинувшись мёртвым, вы не спасётесь от вездесущего дрона. Тактика прятанья головы в песок тоже не самый лучший вариант. Необходимо признать, что большая часть населения земли была бы беззащитной перед лицом этой опасности.

Трудно отделить гиперболу и научную фантастику от практических проблем обычных людей, когда речь заходит об автономном оружии. Несмотря на последние предупреждения Стивена Хокинга (Stephen Hawking), от апокалиптических битв, предсказанных военными экспертами, нас отделяет десятилетия.

И пока ещё не существует преступного синдиката хорошо финансируемых супер-злодеев, у которых есть склады с ботами, оснащёнными лазерным оружием. Среднестатистическому человеку проблема роботов-убийц кажется чем-то, что может стать значимым в далёком будущем, но никак не в наши дни. Тем не менее всегда есть важная фигура из сферы технологий, предупреждающая нас о надвигающейся гибели — как правило, смутными и непонятными способами. Но важны ли эти предостережения для большинства людей?

Вероятно, нет. Однако есть некая дымка экзистенциального страха, которая появляется вместе с пониманием того, что Пентагон и Кремль находят способы использовать AI для войны, но в основном у нас нет времени беспокоиться об автономных ракетах и проекте JEDI.

По нашей шкале страхов роботы-убийцы не выглядят особо устрашающими в сравнении с более обыденными, «привычными» угрозами. Поэтому мы успокаиваем себя следующим образом: пока мы не находимся в зоне боевых действий — мы в безопасности. Мы живём в цивилизованных местах, где есть доступ к водопроводу и службам экстренного реагирования. Мы смеёмся над идеей о том, что роботы могут восстать, забывая, что следует бояться изобретательности злых людей, а не устойчивости кода нейронной сети.

Удивительно, что мы до сих пор не видели заголовков о роботах-убийцах: «Должностные лица всё ещё ищут людей, стоящих за террористическим нападением, осуществляемым автономным оружием». Но, к сожалению, можем увидеть уже в скором времени.

Human Rights Watch понимает это. В ходе своей кампании Campaign To Stop Killer Robots организация посвятила себя невероятно сложной миссии по распространению информации об автономном оружии — в частности, его государственного, военного и полицейского использования. Автономное оружие — это проблема, которую широкая общественность может не осознавать в полной мере, поэтому Watch прекратили свою программу.

В видео, опубликованном 10 октября текущего года, Campaign показывает нам натуралистический вымышленный фрагмент жизни, в котором машины представлены как непредсказуемые и опасные:

Координатор Campaign, Мэри Уэрем (Mary Wareham), сказала журналистам TNW:

« — Видео показывает, как может выглядеть атака полностью автономного оружия. Оно также показывает серьёзную обеспокоенность по поводу отсутствия ответственности касательно полностью автономных систем вооружений».

Кажется, что подобные видео нагнетают панику и далеки от жизни. Но учтите: в этом вымышленном видео нет технологии, которая не существует на самом деле. Это будущее, которое могло произойти вчера, технологически говоря.

Особенно тревожным является то, что в свете комментария Уэрем об ответственности, есть мнение о том, что оружие, разработанное правительствами для военного использования, часто оказывается в руках террористических организаций.

В прошлом году Stop Autonomous Weapons выпустило видео «Slaughterbots». По его сюжету большая технологическая компания берёт участие в конференции, чтобы показать последний и самый большой гаджет для военного использования. Появляется чувство страха.

Подобно эпизоду «Враг народа» в известном телесериале «Чёрное зеркало», ролик показывает, как роботы могут убить нас способами, о которых среднестатистический человек, возможно, и не задумывался. Всё это может быть вымыслом, но такие месседжи важны для тех, кто не представляет, как автономное оружие может повлиять на нашу жизнь в будущем.

Примеры того, как искусственный интеллект можно использовать для автоматизации массового убийства, найдутся не только в художественных произведениях. Совсем недавно сирийский инженер Хамза Салам (Hamzah Salam) создал полнофункциональную автономную платформу с АК-47 и компьютером. Он называет её «электронным снайпером». Это в буквальном смысле «самонаводящаяся пушка», напоминающая аналогичное оружие из таких видеоигр, как «Call of Duty» и «Borderlands». И она существует уже сегодня.

Как сообщает Sputnik News, Салам говорит, что платформа:

« — … может использовать любое стрелковое оружие, от пулемёта до снайперской винтовки. Камеры передают сигнал на компьютер, который анализирует полученные данные. Его основная задача — отслеживать движение. Компьютер имеет несколько предустановленных сценариев. Если он замечает странное поведение в данном квадранте, он откроет огонь».

Мы живём в мире, где вы можете распечатать огнестрельное оружие на 3-D принтере, прикрепить его на штатив с батарейным питанием и использовать ПО машинного обучения с открытым исходным кодом и Raspberry Pi (может, это и преувеличение, а может и нет), чтобы создать что-то, что ещё несколько лет назад казалось экспериментальным оружием, созданным благодаря передовым военным технологиям.

Вещи меняются настолько быстро, что общественное восприятие не всегда поспевает за ними. Следует ли беспокоиться об опасных машинах, которые появятся на улицах вашего города? Стоит, но не сегодня. Те не менее, роботы-убийцы не настолько химерная угроза, чтобы её игнорировать. Если вы хотите больше узнать о борьбе против автономного оружия, ознакомьтесь с программой Campaign To Stop Killer Robots и будьте начеку.

ЧИТАЙТЕ ТАКЖЕ:

Источник: TNW