Возняк, Маск, Хокинг выступают против использования искусственного интеллекта в военных целях

Стивен Хокинг, Элон Маск и Ноам Хомски предостерегают от использования искусственного интеллекта в военных целях. Последствия такого применения могут быть непредсказуемыми, и очень печальными для человечества.

Свои опасения специалисты выразили в открытом письме к ООН чтобы та рассмотрела «вопрос запрета разработки автоматизированного вооружения».

Учёные предостерегают, что оружие, способное автоматически «выбирать и атаковать цели без человеческого вмешательства», может стать «автоматом Калашникова завтрашнего дня» и обернуться триггером к развязыванию новых войн, терроризма и глобальной неустойчивости.

terminatorrobot

На сегодняшний день искусственный интеллект достиг точки, после которой возможность развёртывания и применения подобных систем становится вопросом уже не десятилетий, а всего нескольких лет, – уверены специалисты. В качестве примера приводятся военные беспилотники и квадрокоптеры.

Учёные считают, что технология автономного оружия сама по себе может стать причиной новых войн. В отличие от атомного оружия, автономное вооружение не требует использования дорогостоящего сырья и сверхтонкой ручной сборки – а значит, быстро станет массовым для любой технологической державы мира.

Кроме Хокинга, Маска и Хомски под открытым письмом подписались соучредитель компании Apple Стив Возняк, соучредитель Skype Ян Таллин, а также Демис Хассабис – исполнительный директор британской компании DeepMind, которая занимается исследованиями и разработками искусственного интеллекта.

Ранее Стивен Хокинг уже высказывал беспокойство тем, что в конечном счёте искусственный интеллект, который так усиленно пытается создать человечество, «может перемудрить нас всех».

Читайте также:

Скрытые затраты автоматического мышления

Роботы и хирургия. Часть 2

Роботы занимаются наукой – и это отлично

Почему капитализм хочет нас съесть?