Робособака ANYmal тепер може виходити зі складних ситуацій. Відео

Журнал Science Robotics опублікував доволі детальний матеріал про те, як швейцарські дослідники винайшли новий спосіб для навчання роботів.

Для програмування роботів інженери використовують метод навчання з підкріпленням (reinforcement learning). Він дозволяє роботам вчитися за допомогою проб і помилок і виявляти оптимальний спосіб вирішення завдання – наприклад, щоб зробити крок.

Однак використовувати такий метод на людиноподібних роботах виходить не завжди через складність їх рухів. Тому таких роботів навчають за допомогою комп’ютерного моделювання. Такий спосіб теж не ідеальний: практично неможливо опрацювати всі ситуації, в які може потрапити робот, щоб створити для них свою логіку управління.

У статті дослідників Швейцарської вищої технічної школи Цюріха йдеться, що для спрощення комп’ютерного моделювання вони придумали спосіб навчання за допомогою нейромережі й випробували його на робособаках ANYmal.

Комп’ютерне моделювання допомогло роботу навчатися новим рухам набагато швидше, ніж в реальному світі – приблизно в тисячу разів. ANYmal зміг точніше слідувати вказівкам (наприклад, рухатися з певною швидкістю), навчився бігати на 25% швидше, ніж раніше, і самостійно вставати після падіння.

Дослідники також розповіли, що їм вдалося скоротити необхідну для таких операцій обчислювальну потужність: для моделювання підійде звичайний настільний комп’ютер. Крім того, їх методика може бути використана не тільки для роботів ANYmal.

БІЛЬШЕ ЦІКАВОГО:

Джерело: Science Robotics

Читайте также:

Everyday Robots зсередини: як Google намагалася створити роботів-помічників зі штучним інтелектом

Google DeepMind навчила робота грати в настільний теніс на рівні людини

Kaggle-змагання з машинного навчання від Google

Новий Atlas від Boston Dynamics