文章目录
- 2022
- End-to-end Trainable Deep Neural Network for Robotic Grasp Detection and Semantic Segmentation from RGB
- 2019
- Antipodal Robotic Grasping using Generative Residual Convolutional Neural Network
2022
End-to-end Trainable Deep Neural Network for Robotic Grasp Detection and Semantic Segmentation from RGB
code: https://paperswithcode.com/paper/end-to-end-trainable-deep-neural-network-for
摘要:在这项工作中,我们引入了一种新颖的、端到端可训练的基于cnn的架构,以提供适用于并行板夹钳的抓取检测和语义分割。利用此基础,我们提出了一种新的细化模块,利用先前计算的抓取检测和语义分割,进一步提高了抓取检测的精度。我们提出的网络提供了最先进的精度在两个流行的抓取数据集,即康奈尔和提花。作为额外的贡献,我们为OCID数据集提供了一个新的数据集扩展,使在高度具有高度挑战性的场景中评估抓取检测成为可能。利用这个数据集,我们展示了语义分割可以另外用于将抓取候选对象分配给对象类,这可以用于选择场景中的特定对象。
2019
Antipodal Robotic Grasping using Generative Residual Convolutional Neural Network
code: https://paperswithcode.com/paper/antipodal-robotic-grasping-using-generative
摘要: 在本文中,我们提出了一个模块化的机器人系统来解决从场景的n通道图像中生成和执行对足机器人抓取的问题。我们提出了一种新的生成残差卷积神经网络(GR-ConvNet)模型,该模型可以以实时速度(∼20ms)从n个通道输入中生成鲁棒的对足抓取。我们在标准数据集和不同的家庭对象集上评估了所提出的模型体系结构。我们在康奈尔和提花抓取数据集上分别达到了97.7%和94.6%的最高准确率。我们还演示了使用7自由度机械臂对家庭物体和对抗性物体的抓取成功率分别为95.4%和93%。
论文的贡献:
- 我们提出了一个模块化的机器人系统,它可以预测、规划和执行场景中的物体的对脚抓取。我们开源了所提出的推理1和控制2模块的实现。
- 我们提出了一种新的生成残差卷积神经网络结构,可以预测摄像机视场中对象的对足抓取配置。
- 我们在公开可用的抓取数据集上评估了我们的模型,并在康奈尔和提花抓取数据集上分别达到了97.7%和94.6%的最先进的准确率。
- 我们证明,该模型可以部署在机械臂上,实时进行对足抓取,在家庭和对抗物体上的成功率分别为95.4%和93%。