尚经起名网

您现在的位置是:首页 >

企业资讯

QQ刷赞便宜低价网站 - 全网最低自助下单平台,快手里为啥不能刷人气卡

时间:2024-05-04 06:43 评论
近期读取了一些最新基于RGB图像下的机器人抓取论文,在这里分享下思路。本文提出了一种用于机器人拾取和定位的新目标实时抓取姿态估计策略。通过标注视觉操作关系数据集,论文还构建了一个比康奈尔抓取数据集大得多的multi-object抓取数据集。机器人实验表明,ROI-GD可以帮助机器人在单目标场景和多目标场景中抓取目标,总体成功率分别为92....

自助下单地址(拼多多砍价,ks/qq/dy赞等业务):点我进入

点击上方“3D视觉工坊”高清机器人头像,选择“星标”

干货第一时间送达

前言

最近看了一些关于基于RGB图像的机器人抓取的最新论文,在此分享一下自己的想法。

1. 优化相关的抓取能力分数和抓取回归以更好地进行抓取预测

在本文中,我们提出了一种新的深度卷积网络结构,该结构利用抓取质量评估通过引入新的丢失量来改进抓取回归。 除此之外,还发布了 Jacquard+,它是 Jacquard 数据集的扩展,允许在多个对象放置在可变装饰上的模拟场景中评估抓取检测模型。 Jacquard+ 是通过物理模拟创建的,允许在完全可重现的条件下进行测试。 实验结果表明,所提出的抓取检测方法在 Jacquard 数据集和 Jacquard+ 上都明显优于现有的抓取检测方法;

网络结构:

实验结果:

2. 密集杂乱环境中新物体的实时抓取姿态估计

现有的抓取方法主要是从物体的质心和沿物体的长轴方向进行抓取,但这些方法对于形状复杂的物体往往会失效。 在本文中,我们提出了一种用于机器人拾取和定位的新对象的实时抓取姿态估计策略。 该方法估计点云中的物体轮廓,预测图像平面上的抓取姿态和物体骨架。 被测物体主要是球形容器、网球,甚至还有吹风机(非凸面)等形状复杂的物体。 结果表明,所提出的策略适用于抓取具有复杂形状的物体,并将其与上述策略进行比较以预测有效的抓取配置。 实验验证了抓取技术在两种情况下的有效性,即物体被清楚地放置和物体被放置在密集的杂乱中。 抓取准确率分别为88.16%和77.03%。 所有实验均使用真实的 UR10 机械手和 WSG-50 双指夹持器进行。

3. GRIP:对抗环境中语义机器人操纵的生成式鲁棒推理和感知

本文提出了一种两阶段生成鲁棒推理和感知 (GRIP) 方法来探索生成对抗设置中的对象识别和姿态估计。 生成式鲁棒推理和感知 (GRIP) 作为两阶段目标检测和姿态估计系统旨在结合 CNN 的判别相对优势和生成推理方法来实现鲁棒估计。 在 GRIP 中,推理的第一阶段表示为基于 CNN 的识别分布。 CNN识别分布用于生成多假设优化的第二阶段,它被实现为静态过程的粒子滤波器。 本文证明高清机器人头像,在具有不同光照和拥挤遮挡的对抗场景中,GRIP 方法针对最先进的姿态估计系统 PoseCNN 和 DOPE 实现了 SOTA。 使用 Michigan Progress 抓取机器人演示了抓取和面向对象的顺序操作在对象拾取和放置任务中的兼容性。

4. Domain Independent Unsupervised Learning 掌握新事物

本文提出了一种基于无监督学习的可行抓取区域选择算法,该算法在没有任何外部标签的情况下推断数据集中的模式。 该论文在图像平面上应用 k-means 聚类来识别抓取区域,然后采用轴分配方法。 除此之外,还定义了抓取决策指数 (GDI) 的新概念,以选择图像平面上的最佳抓取姿势,并在杂乱或孤立的环境中执行 2017 年亚马逊机器人挑战赛和 2016 年亚马逊拣选挑战赛标准。 对象进行了多次实验。 论文还将结果与基于先验学习的方法进行了比较,以验证所提出的算法对不同领域的各种新对象的鲁棒性和适应性。

5. Multi-View Picking: Next-best-view Reaching for Improved Grasping in Clutter(代码开源)

摄像机视点选择是视觉抓取检测的一个重要方面,尤其是在杂乱中有很多遮挡的情况下。 虽然现有方法使用静态相机位置或固定数据收集例程,但我们的多视图拾取 (MVP) 控制器通过使用主动感知方法直接根据实时掌握姿势估计的分布选择信息视点来减少混乱和遮挡。 抓取姿势的不确定性。 在从杂波中抓取 20 个物体的实验中,MVP 控制器实现了 80% 的抓取成功率,比单视图抓取检测器高出 12%。 该论文还证明了所提出的方法比考虑多个固定视点的方法更准确和有效。

6. 基于 ROI 的物体重叠场景机器人抓取检测

在本文中,我们提出了一种基于感兴趣区域 (ROI) 的机器人抓取检测算法 ROI-GD。 ROI-GD 使用 ROI 中的特征来检测抓握,而不是整个场景。 它分为两个阶段:第一阶段是在输入图像中提供ROI,第二阶段是基于ROI特征的抓取检测器。 通过标注视觉操纵关系数据集,论文还构建了一个比康奈尔抓取数据集大得多的多目标抓取数据集。 实验结果表明,ROI-GD算法在物体重叠的场景中表现良好,在Cornell Grasp Dataset和Jacquard Dataset上与最新的抓取检测算法不相上下。 机器人实验表明,ROI-GD可以帮助机器人在单目标和多目标场景下抓取目标,整体成功率分别达到92.5%和83.8%。

以上内容如侵犯版权,请联系作者,文章自行删除。