
如果您可以毫无保留地谈论今天的制造业,那就是每个人都想要更多的自动化和灵活性。借助先进的 3D 视觉和多轴机器人,公司现在可以实现其高管几年前梦寐以求的自动化程度。最重要的是,公司还可以比以往任何时候都更大程度地重新调整其自动化。
3D 视觉技术公司正在经历“3D 成像组件和相关软件的数量和复杂性的持续增长”, FANUC Amer 的高级工程师 David Dechow 说ica 的智能机器人/机器视觉部门。
考虑最常见的自动化任务之一:垃圾箱拣选。
一种常见的方法是将传入的零件倒入垃圾箱,并在零件被送入传送带并被拾取时使用振动装置调整零件的方向。 Yaskawa Motoman 产品经理 Keith Vozel 表示:“这通常效果很好,直到您需要一个新零件,而现在您必须花费 25,000 至 50,000 美元来重新设计或重新实施一个新的振动台。” “使用我们的解决方案,您将其倾倒在同一个箱子中,指向一个新的 CAD 模型并说,'开始处理这个零件'。”
Vozel 指的是到 Yaskawa Motoman 的新 MotoSight 3D BinPick 系统,该系统使用“CAD 匹配”从随机定向的箱子中识别和拾取零件。
“加载 CAD 模型后你的部分进入系统,你d定义系统拾取零件的各种方式,”他说。 “举个例子,如果它是一个螺母,而你正在使用一个抓手,你可以告诉系统抓手可以进入螺母的中间并展开以拾取它,或者用一个在中间和一个抓取它外面的。然后,系统将自动识别零件并根据零件在箱子中的方向确定拾取零件的最佳方式,同时还能防止机械臂末端工具与箱子或其他零件发生碰撞。它会优先考虑所有这些因素,以便在不进行任何编程的情况下为该零件获得最佳选择。
“程序员所负责的只是一次性处理该零件它已被拾取,例如将其移至机器并将其放入卡盘中。典型的机器人编程。”
根据零件的复杂程度,您可以将大约 200 个零件导入系统,这比大多数公司都多需要这种制造应用。由于添加零件就像添加 CAD 文件和进行一些编程一样简单,因此与振动碗等不灵活的系统相比,MotoSight 3D BinPick 可能会提供更低的拥有成本。
在车间外,带有集成照明装置的高性能佳能相机一次性创建垃圾箱内容的 3D 点云,并将该信息提供给 MotoSight PC。
Yaskawa Motoman 说许多其他解决方案使用两步识别技术,其中 3D 区域传感器必须首先找到箱中的零件,然后一旦拾取,第二个 2D 识别步骤检测方向
“因为他们没有使用零件的 CAD 模型,”Vozel 说,“他们不知道他们到底是什么'看到以及他们如何挑选它。拥有 CAD 模型来识别什么是我n 垃圾箱允许一次完成所有这些,从而节省了周期时间。”
这里的另一个说法是,使用 CAD 数据使系统能够放置零件具有很高的精度,这对于许多后续制造任务来说是必需的。但正如我们将看到的,这种方法在速度或准确性方面的优势是有争议的。
另一种一次性方法
FANUC 进入该领域的新产品是 3D Vision Sensor,Dechow 将其描述为“使用伪随机点或点纹理投影来创建视野的 3D 点云的单次 3D 立体相机成像系统。然后,我们使用我们的箱子拾取和随机零件拾取工具箱中的各种软件工具从 3D 点云中提取信息——从模式匹配到斑点分析、表面分析和各种其他工具来查看多样性我们可能必须挑选的 3D 零件。”
FANUC 已经拥有多图像结构编码光系统(3D 区域传感器),但该公司推出了 3D 视觉传感器,用于需要比多镜头 3D 图像传感器所能提供的速度更高的应用.这包括在制造和仓库、配送以及零售订单履行等应用中处理小箱子或手提袋。或零件可能移动的情况,例如零件跟踪。而 Dechow 将 CAD 匹配视为一种有价值的技术,适用于可能有大量传入零件的情况受到限制,它通常不是正确的解决方案。
“在大多数情况下,您不需要识别垃圾箱中的物品,您只需要卸载它。 FANUC 使用一组通用函数进行多表面 3D 模式匹配,就像您在 2D 中所做的那样。也许分析对象的相邻峰,分析对象的 3D 斑点受限表面积,将对象分析为几何图元,等等。这些是您需要的技术,可以从容器中取出真正非均质的随机部件。 CAD 匹配虽然对于受约束的零件集是合理的,但不适用于具有几乎不受约束的零件集的更广泛的应用程序。”
CAD 匹配不是天生的Dechow 说,在拾取和放置零件方面也更加准确。
“大多数现代 3D 视觉系统都可以非常准确地定位和拾取零件。但在一个真正随机的垃圾箱中,您几乎永远无法完全按照您喜欢的方式挑选零件。您几乎总是必须抓住它并将其移动到您再次抓住它的地方。找到零件很容易。抓住零件是一件困难的事情。您需要使机器人能够在可拾取的位置拾取零件然后使用它来拾取的算法把它从垃圾箱里拿出来。 CAD 匹配不会解决重新抓取或识别零件位置的所有问题。这显然不是一个差异化因素。”
Vozel 不同意:“3D CAD 匹配使 MotoSight 3D BinPick 能够识别并专门挑选一个零件,以便它可以准确呈现给下一步,无需移动它并重新拾取它。点云和图像映射以及各种软件选项只需一个简单的步骤即可完成艰巨的工作,无需额外的处理时间。”
Vozel 同意不同的应用程序需要不同的解决方案,因此 Yaskawa Motoman 的其他 MotoSight 产品包括 2D 和其他 3D 产品,每种产品都针对特定应用而设计。
AI 和新的速度级别
3D 成像系统处理所有这些信息的速度有多快?处理速度是一个限制因素吗?
视情况而定。
他们的单发系统的图像捕获和决策时间因对象和执行的分析工具数量而异,从大约 300 毫秒到大约 1400 毫秒,Dechow 说。
“如果我们进行复杂的匹配,最多需要两三秒。但对于机器人来说,处理速度通常不是一个大问题,因为照片是在机器人捡起一个零件并去往其他地方时拍摄的。”
如您所料,CAD 匹配需要更长的时间。
“拍照需要四到七秒,处理图像以识别零件,告诉机器人做什么,并回收相机以准备回来做另一个,”Vozel 说。但是,他补充说,即使这比目前的方法慢,鉴于其精度和可重复性,该解决方案仍可能增加价值ity。
Dechow 还指出,并不总是需要在每个周期都捕获图像。
“根据零件的大小和随机堆的大小,我们尝试从每张图片中挑选 5 到 20 个。在我们获得下一张图像之前,我们进出的速度与机器人的移动速度一样快。但它高度依赖于零件。”
例如,如果一个箱子包含几个大零件并且捡起一个可能会干扰相邻的零件,系统会每次挑选后可能都要拍照。但是在表面上装满许多小物品的垃圾箱中,系统可能不需要其他图像就可以从许多区域中挑选。它可能会在选择之后将一个区域“列入黑名单”直到下一张图像(以防附近的物品受到干扰),但这仍然会留下多个选择。
“你通常不会得到那么多找到,但你会尝试根据表面的数量获得倍数,”他说。
但是如果你需要从中识别、挑选和放置数以千计的不同且随机定向的物体?
Universal Logic 副总裁 Hob Wubbena 说答案是他公司的人工智能 (AI),名为 Neocortex,这“超越了 3D 视觉本身所能做的。这意味着数千甚至数十万件不同的物品,通常每小时拣选 600-1400 件。”
为此,Universal 的 3D 视觉软件 Spatial Vision , 在每个机器人循环之间提供 3D 扫描。该系统仅需 500-1200 毫秒即可捕获和处理图像,包括“将感兴趣的范围归零、检测边缘、识别部件、使用 AI 来决定选择哪个部件——无论是概率最高的部件、最靠近机器人,t他距离最远,等等——然后将六个自由度的拾取点发送给机器人。
“它在机器人需要答案之前提供了答案。如果应用程序需要更高的速度,它可以进行单次 3D 扫描并从该图像中挑选多个物品,或者 Neocortex 可以只从垃圾箱中挑选物品而不识别物体。”
Universal 的标准实施是一个完整的机器人工作单元,称为 Neocortex G2R(货物到机器人),其中包括具有 AI 的 3D 视觉以实现巨大的多功能性。
对于订单履行,如果它不能识别物体,它会自动切换到几何分析/斑点检测并只挑选物品。
如果 100% 准确需要特定 SKU(库存单位)拣选(例如在药品订单履行中),已紧密集成六面条码扫描选项。
在随机箱拣选中,它可以通过图案、表面和形状算法即时拣选数千件物品,而无需完全识别物体。
如果需要高质量的机器人检测或精确的机器维护,Neocortex 可以使用 CAD 匹配高质量的传感器,这通常需要 700 毫秒到 2 秒,从而达到 70 微米的精度。
Universal 的软件是一个模块化平台,与传感器(可以是激光、激光雷达、结构光、飞行时间、立体视觉、等)和机器人,虽然 Yaskawa Motoman 是 Universal 的“即插即用”G2R 机器人单元的重要合作伙伴。
Universal 大力投资高端 GPU Wubbena 说,使用许多并行线程进行处理以确保他们的软件始终比机器人物理更快。足够快以在两者之间拍摄 3D 图像每个机器人周期都足够快,可以从不同种类的垃圾箱中挑选。
Universal 的一位客户目前在一年的时间里从 90,000 件独特的物品中挑选。
Universal 大约在五年前就达到了 3D 视觉区分物体能力的极限,尽管算法不断改进,Wubbena 说,并引用了同样的紧密包装盒的例子高度,解释说 3D 视觉系统通常无法区分盒子之间的间隙和给定盒子上襟翼之间的间隙。
“那是当与我们四年前开始做的 3D 视觉集成时,Neocortex AI 可以很好地解决一些问题。新皮质还扩展了对复杂物品(例如植物或复杂物品)的感知。我们在现场运行的生产系统的可靠性为 99.5–99.98%,定义为无需人工干预的运行百分比发明。这意味着在 24 小时的运营中,您只需要 1 到 13 分钟的人工交互。”
另一个因素是 Spatial Vision 的算法能够确定视野内物理对象的尺寸,精确到传感器像素的 1/20 以内。 “由于我们的软件适用于任何传感器,如果应用需要更高的 3D 精度,只需添加或选择更好的固定传感器、机器人手臂上的传感器,或两者兼而有之。”
机器学习还接管了挑选不同对象所需的绝大多数编程,具有明显的优势。
“例如,我们的 Neocortex G2R 系统用于订单履行,在初始安装和启动时,具有处理普通消费品的大部分基础知识,”Wubbena 说。 “时不时地,如果你有一些奇怪或截然不同的东西,你可以从机器学习到人类训练模式。在人工指导下训练 AI 系统需要一两分钟,然后您可以立即返回完全自动化。”
Wubbena 指出,对于系统配置视觉系统以识别每件物品甚至只需要五分钟,那么 100,000 件物品则需要 8300 小时,或四个工程师年。
如果这一切听起来有点像科幻小说,也许应该记住 Universal Logic 是 NASA 的衍生产品,并且该技术首先应用于 Robotnaut,这是在国际空间站运行的唯一太空人形机器人。
让机器人纠正您
ABB Robotics 全球产品经理 Klas Bengtsson 认为,3D 视觉系统通常比 2D 系统更易于使用,而且不断增加的计算机容量使得实施更多 3D 视觉系统变得更加容易。
ABB 最近开发了一种新的 3D 视觉质量检测系统。
“机器人视觉检测系统捕捉零件尺寸的变化,提供的不仅仅是一个‘是’ ' 或零件上‘没有’确定,但有关如何纠正某些特征的信息,”Bengtsson 说。
ABB 的系统使用 3D 白光扫描传感器安装在 ABB 机器人的手臂上,依靠机器人的敏捷性来定位传感器,以从最佳角度访问简单和复杂零件的大部分区域。系统快速创建对象的点云并将表面与对象进行比较标称 CAD 数据,甚至可以检测出微小的偏差,从而能够及早发现任何生产问题。
为了对这种能力进行定量分析,Bengtsson 指出,单个捕获有五百万像素,“检查系统通常是准确的 d拥有 30 微米及以下。”
但与此同时,测量系统的速度、精度和可重复性与机器人的精度和可重复性无关。
虽然这在理论上可以在挑选零件时完成,但他说,“考虑到所需的信息量,我们通常单独进行尺寸检查,而且通常使用超过一张图片。真正的价值在于您可以获得有关零件的即时反馈,因此您知道是否应该调整某些东西。早期检测意味着早期整改,防止有缺陷的组件进入公共领域。您还可以使用该系统来处理更普通的检查任务,例如确保零件在功能上是合适的,并且各种组件实际上都可以组装在一起。”
多少钱?
这些复杂的 3D 视觉系统要多少钱?
Yaskawa Motoman'其新的 3D 视觉子系统标价约 45,000 美元,包括使该子系统正常工作的一切:相机、进行识别的软件、与机器人控制器接口的软件、运行所有软件的面向图形的高性能 PC上、布线、电源、显示器、鼠标……整个系统封装在一个机架安装单元中。
整个橇装式 Neocortex G2R 机器人单元(包括在北美的安装和启动) ) 有 12-18 个月的回报,“五年期间劳动力成本减半——每小时 7 美元,无论是租赁还是购买,”Wubbena 说。 “Neocortex 系统 [使用所有主要机器人品牌] 在零售贸易、批发贸易、制造和农业领域已经运营了长达四年。将其视为可以随着流程和需求的变化重新部署的虚拟员工。”