机械手抓取视觉引导系统应用案例解析

2025-05-08

机械手抓取视觉引导系统应用案例解析

一、视觉引导系统在食品包装行业的应用

在食品包装领域,某复合调味品行业领军企业为提升生产质量与效率,对产线进行升级改造。以往,该企业食品包装环节的周转箱拆垛、投料以及空周转箱码垛等工作由人工操作,不仅作业强度大、内容单一,而且作业质量和效率普遍低下。周转箱以 2×3 形式排列,层层码放后由 AGV 运输至预定点。

为解决这些问题,梅卡曼德协助 ABB 机器人,采用 AI + 3D + 工业机器人解决方案。其中,ABB 机器人搭载 Mech - Eye 工业级 3D 相机。该相机具有高精度和大视野的特点,能够对壁薄且表面凹凸不平的周转箱生成高质量点云数据,轻松覆盖整体周转箱。

在精准抓取方面,整托来料的周转箱分为 3 组,每组的两个周转箱紧密贴合,组间缝隙非常小。梅卡曼德 3D 视觉系统能够准确识别周转箱的空间位姿,引导机器人携带夹具伸入周转箱的缝隙之中,进行精准抓取,完成投料。在空箱码垛环节,该系统还能准确识别金属托盘上微小的限位块,保证机器人将周转箱准确码放到限位块内,显著提升了作业质量。

从运行效率来看,由于厂房顶高限制,拍照空间较为有限。但 3D 视觉系统单次拍照采集局部特征即可获取周转箱的空间位姿,运行效率高。Mech - Eye 从拍照到获取 3D 数据的时间低至 0.5 s,节拍满足客户实际现场生产需求。而且该系统可配合 ABB 机器人实现 24 小时无障碍稳定运行,显著延长作业时间,保障产能,确保订单及时交付。此外,此项目采用将 3D 相机安装在机械臂上的方式,单台相机可对应周转箱拆垛和空周转箱码垛两个工位,灵活程度高,降低了产线部署成本。梅卡曼德自研碰撞检测及轨迹规划算法,能自动选择合适的机器人运动路径和进入角度,有效应对现场空间紧凑、干涉严重等问题,提升运行稳定性。自投产以来,该食品工厂单线产能提升超两倍、人均效能提升超 6 倍、单件制造成本下降近 40%。

二、视觉引导系统在汽车零部件制造行业的应用

曲轴工件自动化上料

某知名汽车零部件制造工厂存在来料码放不规范、工件无序散乱摆放以及上料节拍要求高的问题。此前该工位的曲轴工件一直由人工上料,工作环境恶劣、危险程度高,且人工上下料成本高、效率低,无法满足 24 小时生产需求。

辰视智能采用 3D 视觉引导机器人自动上下料的解决方案。具体工作流程为:叉车将一框曲轴放置到 3D 视觉识别工作区域,辰视 3D 视觉识别曲轴无干涉位置,然后引导机器人抓取上料,并放置到对应的垛盘上,给到下一个工位的机器人进行抓取抛光打磨,实现了自动化作业,提高了生产效率。

缸套自动化上下料

某大型汽车零部件制造工厂也面临着类似问题,不同大小淬完火的轴套经过传送带运送到指定位置。辰视 3D 视觉系统识别后,引导机器人进行抓取,最后放置到指定的尺寸检测点,完成了自动化作业全过程,解决了无序摆放工件的抓取上料及深框干涉等问题,提升了自动化生产水平。

三、视觉引导系统在汽车总装行业的应用

车顶盖自动化上料

在某知名汽车总装工厂,ACV 小车将车顶盖携带至指定位置。辰视 3D 视觉产品固定安装,工件到位后机器人将工件抓起至视觉拍照位置,视觉启动拍照,拍照成功后将纠偏的位置反馈给机器人进行纠偏,然后机器人将工件放进指定的销位中,实现了车顶盖的自动化上料,提高了总装效率。

车地板自动化上料

同样在汽车总装环节,AGV 小车将汽车地板运送到指定区域,辰视 3D 视觉产品安装至机器人末端,识别工件并引导机器人进行抓取上料,完成了车地板的自动化上料作业,为汽车总装的高效进行提供了保障。

四、视觉引导系统在清洁机器人领域的应用

在深圳天安云谷产业园,搭载奥比中光 3D 视觉传感器的高仙清洁机器人正在清扫地面的落叶。凭借 3D 视觉“智慧之眼”,该机器人可以自动识别、清理垃圾,并在复杂的户外环境中自动避障,极大地提升了清洁效率。园区清洁运营负责人表示,园区大概有几万平方米,其中的餐饮区域原来需要三个保洁人员来循环工作,现在只需要一台商用清洁车,就可以释放三个人力。

针对智能机器人行业兴起的需求,奥比中光推出了双目结构光、单目结构光、iToF、激光雷达等多种机器人视觉感知方案,帮助机器人实现建图、定位、避障、场景识别等功能。截至 2022 年 6 月底,公司已与超过 100 家服务机器人客户进行合作,广泛落地于商用清洁、酒店配送、餐饮配送、商务接待等领域,此外工业机器人、ROS 教育机器人等细分赛道发展态势也很好。

五、视觉引导系统在知名机器人产品中的应用

波士顿动力 Atlas

波士顿动力的 Atlas 机器人使用 TOF 深度相机以每秒 15 帧的速度生成环境的点云。其感知软件使用多平面分割的算法从点云中提取平面,该算法的输入馈入到一个映射系统中,为 Atlas 通过相机看到的各种不同对象构建模型。通过这种视觉感知,Atlas 可以规划特定行为,例如确定下一步要跳到哪里。

特斯拉 OPTIMUS

由于在电动车 FSD 积累了成熟的视觉感知技术,特斯拉机器人的 3D 传感模块以多目视觉为主,使用三颗 Autopilot 摄像头作为感知系统。在采集信息后,通过强大的神经网络处理和识别不同任务,依靠其胸腔内部搭载的 FSD 全套计算机完成相应操作。

小米 CyberOne

小米 CyberOne 搭载的 Mi - Sense 深度视觉模组是由小米设计,欧菲光协同开发完成。该模组主要由 iToF 模组、RGB 模组、可选的 IMU 模块组成,产品在测量范围内精度高达 1%,应用场景十分广泛,可通过第三方实验室 IEC 60825 - 1 认证,满足激光安全 Class1 标准。

优必选 WALKER X

优必选 WALKER X 采用基于多目视觉传感器的三维立体视觉定位,采用 Coarse - to - fine 的多层规划算法,结合第一视角实景 AR 导航交互及 2.5D 立体避障技术,实现动态场景下全局最优路径自主导航。其应用的视觉 SLAM 算法,使视觉定位技术达到了商用水平。

六、视觉引导系统在 ROS 机器人中的应用及环境搭建

在 ROS 机器人领域,计算机视觉也有重要应用。首先需要进行环境搭建,在 Ubuntu 系统中,可使用以下命令安装 ROS 和 OpenCV 库:

$ sudo apt - get update $ sudo apt - get install ros - melodic - cv - bridge ros - melodic - image - transport ros - melodic - opencv

创建一个名为 image_processing.py 的 Python 脚本,并添加以下代码:

#!/usr/bin/env python import rospy from sensor_msgs.msg import Image from cv_bridge import CvBridge import cv2 class ImageProcessing: def __init__(self): self.bridge = CvBridge() self.image_sub = rospy.Subscriber("/camera/image_raw", Image, self.image_callback) def image_callback(self, msg): try: cv_image = self.bridge.imgmsg_to_cv2(msg, "bgr8") gray_image = cv2.cvtColor(cv_image, cv2.COLOR_BGR2GRAY) edges = cv2.Canny(gray_image, 100, 200)

通过以上代码和环境搭建,可实现 ROS 机器人的计算机视觉相关功能,为机器人在更多场景下的应用提供支持。综上所述,机械手抓取视觉引导系统在多个行业和领域都有广泛且成功的应用案例,极大地推动了各行业的自动化和智能化发展。

阅读98
分享
下一篇:这是最后一篇
上一篇:这是第一篇
写下您的评论吧