机器人大会发现是一个充满挑战的问题,它生活在资源分配和运动计划的交集中。目的是将一组预定义的对象组合在一起,以形成新事物,同时考虑使用机器人在循环中执行任务。在这项工作中,我们解决了使用一组类似俄罗斯方块的构建块和机器人操纵器完全从头开始构建任意,预定义的目标结构的问题。我们的新型分层方法旨在有效地将整个任务分解为三个可行的水平,这些级别相互受益。在高水平上,我们运行了一个经典的混合企业计划,用于全局优化块类型的选择和块的最终姿势,以重新创建所需的形状。然后利用其输出来有效地指导探索基础强化学习(RL)政策。该RL策略从基于Q的灵活图表中汲取了其概括属性,该属性通过Q-学习学习,可以通过搜索来完善。此外,它说明了结构稳定性和机器人可行性的必要条件,这些条件无法有效地反映在上一层中。最后,掌握和运动计划者将所需的组装命令转换为机器人关节运动。我们证明了我们提出的方法在一组竞争性的模拟RAD环境中的性能,展示现实世界的转移,并与非结构化的端到端方法相比,报告性能和稳健性。视频可从https://sites.google.com/view/rl-meets-milp获得。
translated by 谷歌翻译