Стивен Хокинг, Элон Маск и Ноам Хомски предостерегают от использования искусственного интеллекта в военных целях. Последствия такого применения могут быть непредсказуемыми, и очень печальными для человечества.
Свои опасения специалисты выразили в открытом письме к ООН чтобы та рассмотрела «вопрос запрета разработки автоматизированного вооружения».
Учёные предостерегают, что оружие, способное автоматически «выбирать и атаковать цели без человеческого вмешательства», может стать «автоматом Калашникова завтрашнего дня» и обернуться триггером к развязыванию новых войн, терроризма и глобальной неустойчивости.
На сегодняшний день искусственный интеллект достиг точки, после которой возможность развёртывания и применения подобных систем становится вопросом уже не десятилетий, а всего нескольких лет, – уверены специалисты. В качестве примера приводятся военные беспилотники и квадрокоптеры.
Учёные считают, что технология автономного оружия сама по себе может стать причиной новых войн. В отличие от атомного оружия, автономное вооружение не требует использования дорогостоящего сырья и сверхтонкой ручной сборки – а значит, быстро станет массовым для любой технологической державы мира.
Кроме Хокинга, Маска и Хомски под открытым письмом подписались соучредитель компании Apple Стив Возняк, соучредитель Skype Ян Таллин, а также Демис Хассабис – исполнительный директор британской компании DeepMind, которая занимается исследованиями и разработками искусственного интеллекта.
Ранее Стивен Хокинг уже высказывал беспокойство тем, что в конечном счёте искусственный интеллект, который так усиленно пытается создать человечество, «может перемудрить нас всех».