当前位置: X-MOL 学术Intel. Serv. Robotics › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Robotic grasp manipulation using evolutionary computing and deep reinforcement learning
Intelligent Service Robotics ( IF 2.3 ) Pub Date : 2021-01-15 , DOI: 10.1007/s11370-020-00342-7
Priya Shukla , Hitesh Kumar , G C Nandi

Intelligent object manipulation for grasping is a challenging problem for robots. Unlike robots, humans almost immediately know how to manipulate objects for grasping due to learning over the years. In this paper, we have developed learning-based pose estimation by decomposing the problem into both position and orientation learning. More specifically, for grasp position estimation, we explore three different methods such as genetic algorithm (GA)-based optimization method to minimize error between calculated image points and predicted end-effector (EE) position, a regression-based method (RM) where collected data points of robot EE and image points have been regressed with a linear model, a pseudoinverse (PI) model which has been formulated in the form of a mapping matrix with robot EE position and image points for several observations. Further for grasp orientation learning, we develop a deep reinforcement learning (DRL) model which we name as grasp deep Q-network (GDQN) and benchmarked our results with Modified VGG16 (MVGG16). Rigorous experimentation shows that due to inherent capability of producing very high-quality solutions for optimization problems and search problems, GA-based predictor performs much better than the other two models for position estimation. For orientation, learning results indicate that off policy learning through GDQN outperforms MVGG16, since GDQN architecture is specially made suitable for the reinforcement learning. Experimentation based on our proposed architectures and algorithms shows that the robot is capable of grasping nearly all rigid body objects having regular shapes.



中文翻译:

使用进化计算和深度强化学习的机器人抓取操纵

对于抓握来说,智能对象操纵是一个具有挑战性的问题。与机器人不同,由于多年来的学习,人类几乎立即知道如何操纵物体以进行抓取。在本文中,我们通过将问题分解为位置和方向学习来开发基于学习的姿势估计。更具体地说,对于抓握位置估计,我们探索了三种不同的方法,例如基于遗传算法(GA)的优化方法,以最大程度地减少计算的图像点和预测的末端执行器(EE)位置之间的误差,以及基于回归的方法(RM)机器人EE的采集数据点和图像点已通过线性模型回归,伪逆(PI)模型以带有机器人EE位置和图像点的映射矩阵的形式表示,可以进行多次观察。为了进一步进行抓握定向学习,我们开发了一种深度强化学习(DRL)模型,我们将其称为抓握深度Q网络(GDQN),并使用改良的VGG16(MVGG16)来对我们的结果进行基准测试。严格的实验表明,由于具有为优化问题和搜索问题生成非常高质量的解决方案的固有能力,基于GA的预测器的性能要比其他两个位置估计模型更好。对于定向,学习结果表明,通过GDQN进行的偏离策略的学习优于MVGG16,因为GDQN体系结构特别适合于强化学习。根据我们提出的架构和算法进行的实验表明,该机器人能够抓住几乎所有具有规则形状的刚体对象。我们开发了一种深度强化学习(DRL)模型,我们将其命名为“掌握深度Q网络(GDQN)”,并使用改良的VGG16(MVGG16)对我们的结果进行了基准测试。严格的实验表明,由于具有为优化问题和搜索问题生成非常高质量的解决方案的固有能力,基于GA的预测器的性能要比其他两个位置估计模型更好。对于定向,学习结果表明,通过GDQN进行的偏离策略的学习优于MVGG16,因为GDQN体系结构特别适合于强化学习。根据我们提出的架构和算法进行的实验表明,该机器人能够抓住几乎所有具有规则形状的刚体对象。我们开发了一种深度强化学习(DRL)模型,我们将其命名为“掌握深度Q网络(GDQN)”,并使用改良的VGG16(MVGG16)对我们的结果进行了基准测试。严格的实验表明,由于具有为优化问题和搜索问题生成非常高质量的解决方案的固有能力,基于GA的预测器的性能要比其他两个位置估计模型更好。对于定向,学习结果表明,通过GDQN进行的偏离策略的学习优于MVGG16,因为GDQN体系结构特别适合于强化学习。根据我们提出的架构和算法进行的实验表明,该机器人能够抓住几乎所有具有规则形状的刚体对象。严格的实验表明,由于具有为优化问题和搜索问题生成非常高质量的解决方案的固有能力,基于GA的预测器的性能要比其他两个位置估计模型更好。对于定向,学习结果表明,通过GDQN进行的偏离策略的学习优于MVGG16,因为GDQN体系结构特别适合于强化学习。根据我们提出的架构和算法进行的实验表明,该机器人能够抓住几乎所有具有规则形状的刚体对象。严格的实验表明,由于具有为优化问题和搜索问题生成非常高质量的解决方案的固有能力,基于GA的预测器的性能要比其他两个位置估计模型更好。对于定向,学习结果表明,通过GDQN进行的偏离策略的学习优于MVGG16,因为GDQN体系结构特别适合于强化学习。根据我们提出的架构和算法进行的实验表明,该机器人能够抓住几乎所有具有规则形状的刚体对象。学习结果表明,由于GDQN体系结构特别适合于强化学习,因此通过GDQN进行的脱离政策学习优于MVGG16。根据我们提出的架构和算法进行的实验表明,该机器人能够抓住几乎所有具有规则形状的刚体对象。学习结果表明,由于GDQN体系结构特别适合于强化学习,因此通过GDQN进行的脱离政策学习优于MVGG16。根据我们提出的架构和算法进行的实验表明,该机器人能够抓住几乎所有具有规则形状的刚体对象。

更新日期:2021-01-15
down
wechat
bug