Роботы-гуманоиды осваивают манипуляции с объектами: новый прорыв
Роботы-гуманоиды, имитирующие человеческую внешность и движения, могут стать незаменимыми помощниками во множестве задач, которые сегодня выполняют люди. От бытовых хлопот, таких как уборка и готовка, до транспортировки предметов и сборки изделий — их потенциал огромен.
Однако для самостоятельного выполнения этих задач роботам необходимо надежно манипулировать различными объектами в разнообразных условиях. Большинство существующих моделей машинного обучения для роботизированных манипуляций отлично справляются в знакомых сценариях, но теряют эффективность при столкновении с новыми, ранее не встречавшимися ситуациями.
Исследователи из Университета Уханя разработали RGMP (recurrent geometric-prior multimodal policy) — новую платформу, призванную значительно улучшить способности гуманоидных роботов к манипуляции объектами. Эта разработка, представленная в препринте на arXiv, обещает позволить роботам увереннее захватывать широкий спектр предметов и успешнее справляться с большим количеством ручных задач.
“Мы были вдохновлены трудностями, с которыми сталкиваемся в области манипуляции объектов гуманоидными роботами, особенно ограничениями современных подходов, основанных на данных, которые требуют обширных наборов для достижения надежной производительности”, — делится Сюэтао Ли, первый автор исследования. “Наша цель — разработать более эффективный с точки зрения данных метод, который сможет лучше обобщать информацию в незнакомых средах, интегрируя геометрические рассуждения в процесс выбора навыков робота”.
RGMP: геометрические инсайты для умных манипуляций
Основная задача этой работы заключалась в создании модели машинного обучения, объединяющей геометрико-семантические рассуждения с визуально-моторным управлением роботов-гуманоидов. Платформа повышает адаптивность роботов, позволяя им надежно взаимодействовать с объектами в различных условиях, даже при обучении на небольших объемах данных, учитывая контекстуальную информацию.
Платформа RGMP состоит из двух ключевых компонентов:
- Geometric-Prior Skill Selector (GSS): этот модуль интегрирует геометрические априорные знания в модель визуального языка, помогая роботу выбирать подходящие навыки на основе формы и положения объекта.
- Adaptive Recursive Gaussian Network (ARGN): отвечает за эффективный синтез движений, рекурсивно моделируя пространственные отношения между роботом и объектами, с которыми он взаимодействует.
“Эта комбинация компонентов обеспечивает надежное выполнение задач с минимальным объемом данных, решая проблему обучения на основе редких демонстраций”, — поясняет Ли.
Исследователи протестировали свою разработку на гуманоидном роботе собственной конструкции и двуруком настольном роботе. Первые результаты превзошли ожидания: платформа позволила роботам успешно манипулировать различными объектами в подавляющем большинстве протестированных сценариев.
“Наша платформа сочетает пространственное мышление с эффективным обучением на данных, достигая 87% успеха в тестах на обобщение и демонстрируя в 5 раз большую эффективность использования данных по сравнению с передовыми моделями, такими как diffusion policy”, — отмечает Ли.
Перспективы и будущее развитие
Разработанная платформа RGMP имеет потенциал для дальнейшего совершенствования и тестирования на более широком спектре гуманоидных роботов, что может ускорить их внедрение в реальные сценарии.
Особенно ценной RGMP может стать для автоматизации задач, требующих быстрой адаптации роботов в незнакомых средах без дополнительного обучения — будь то бытовые задачи, предоставление услуг или производственные процессы.
“Наши будущие исследования будут сосредоточены на расширении возможностей RGMP для обобщения на более широкий спектр задач”, — добавляет Ли. “Мы также планируем изучить автоматическое получение траекторий действий, специфичных для задач, позволяя роботам выводить манипуляции для новых объектов на основе минимального человеческого ввода или предварительных знаний, тем самым еще больше устраняя необходимость в утомительном обучении в динамичных средах”.
Галерея
Комментарии
Комментариев пока нет.