Чим штучний інтелект гірший? Європарламент розробляє права для роботів

Роботи ще не гуляють масово вулицями міст, а європейські політики вже переймаються правами та моральними правилами, які слід встановити для штучного інтелекту (за аналогією з правилами для природного розуму). І мова не про оновлену версію законів Азімова — а що як «розумним» алгоритмам захочеться більшого, аніж просто не нашкодити людині.

Навіщо права роботам

Члени Європарламенту виступили з пропозицією розробки правил для роботів та систем штучного інтелекту, акцентуючи, що така ініціатива має бути впроваджена самим Європейським парламентом. Парламентарі стверджують, що це необхідно аби мати змогу повною мірою використовувати економічний потенціал «розумних» машин, а також забезпечити «стандартнпий рівень захисту і безпеки».

Питання слід ставити наступним чином: хто насправді отримуватиме вигоду від запровадження «кодексу честі» робототехніки? Оскільки системи штучного інтелекту стають все розвинутішими, влада переймається, що права та обов’язки таких систем потребуватимуть регулювання вже найближчим часом. Те, що розпочнеться у форматі переліку операційних налаштувань, може врешті дійти до списку власне прав, наданих штучному інтелекту. Чому б не уявити, що з часом у переліку може з’явитися і право голосу?

Про що хвилюватися?

У виданні Natural News вийшла стаття Джей Ді Хейеса (JD Heyes), в якій він говорить про зв’язок між розквітом робототехніки і масовим рухом за роззброєння мирного населення (зокрема, в США). Роботизованих песиків SpotMini від Boston Dynamics автор називає потенційними патрульними вулиць і наглядачами за поведінкою людей. Не може бути, щоб подібні технологічні розробки були призначені лише для використання в якості домашніх IT-улюбленців. Штучний інтелект, керований певною групою людей, а не загальнообов’язковими і чітко встановленими правилами, може змінити розподіл сил у світі та встановити нові пріоритети.

Незалежний штучний інтелект — одна з цілей створення і розвитку лабораторії OpenAI Ілона Маска, про яку ми детально розповідали раніше. Упередження проти роботизованого мозку мав і Стівен Гокінґ, а розробка нормативної документації може бути одним зі шляхів вирішення проблеми. Принаймні, якоїсь частини ускладнень, що будуть спричинені появою «розумних» машин.

Так, наприклад, уряд Британії затвердив мінімальні вимоги для ефективного протистояння кібератакам на безпілотні автомобілі. Документ допомагає виробникам акцентувати увагу на безпеці всіх учасників дорожнього руху. Регулювання штучного інтелекту повинно мати аналогічний акцент на безпеці всіх учасників нових технологічних взаємин.

ЧИТАЙТЕ ТАКОЖ:

Джерело: Robotics.news