文章

基于AI齿轮轴外观检测研究与应用

2025-07-29芦杰

34阅
本研究针对齿轮轴外观检测中人工目视效率低、标准不统一的行业痛点,提出了一种基于深度学习的全自动化视觉检测系统。
0 前言

       人工智能(AI)在视觉领域的应用,尤其是深度学习技术,通过模拟动物的视觉神经网络,实现了对复杂图像的精准分析与识别。深度学习将神经元的工作原理转化为数学模型,并通过多层网络结构对视觉信号进行逐层抽象,最终完成从图像到概念的映射。

       与传统算法相比,AI具有显著优势:

       1.数据驱动:深度学习通过大量标注数据自动学习分类规则,无需人工编写复杂算法。

       2.适应性强:能够有效应对零件表面差异、光源变化等工业检测中的常见问题。

       3.通用性高:同一网络架构只需调整训练数据可适用于不同任务,显著降低开发成本。

       近年来,AI深度学习模型(如卷积神经网络CNN)在图像分类、目标检测等任务中表现卓越。在工业检测领域,AI技术能够克服光照波动、零件形变等干扰因素。例如,基于迁移学习的预训练模型(如ResNet、YOLO)通过微调即可适应特定检测场景,显著缩短开发周期。此外,多模态数据融合(如图像+3D点云)进一步提升了微小缺陷的识别精度。

       汽车零部件制造对一致性要求极高,但加工工艺波动导致的表面纹理差异、机械振动引发的成像模糊等问题长期存在。传统算法依赖人工设计特征(如边缘检测、模板匹配),难以应对复杂纹理背景下的缺陷分割。此外,工业现场光源稳定性不足、设备安装误差等因素进一步增加了检测难度。AI技术的引入为解决这些问题提供了新思路。

       1.小样本学习:缺陷样本稀缺导致模型泛化能力不足;

       2.实时性要求:生产线需毫秒级响应速度;

       3.跨域适应性:不同批次零件的表面特性差异需模型动态调整。

1 整体方案

       齿轮轴在加工过程中易产生多种缺陷,如磕碰、黑皮、裂纹、崩齿、划伤等,如图1所示。目前,企业主要依赖人工目视检测,存在以下痛点:

       ●效率低:检测需在特定光照条件下(300-600LX)进行,人员需旋转产品逐一检查,耗时较长。

       ●标准不一:人员对缺陷的理解差异导致漏检或误判,引发客户投诉。

       ●成本高:培训周期长,人力成本居高不下。
 
齿轮缺陷图
图1 齿轮缺陷图

       本方案设计了一套“硬件+算法+软件”的全流程检测系统(图2):

       采用面阵相机,全局成像与粗定位;应用线阵相机进行高速扫描齿面细节,分辨率8k像素,行频80kHz;进行多角度布局,两台面阵相机对称布置于齿轮轴两侧(俯角15°),线阵相机垂直向下,结合旋转平台实现360°无死角扫描。

       同时通过PLC脉冲信号控制相机与旋转平台时序,确保图像采集与运动同步。并采用环形LED阵列与同轴光源组合,通过多角度补光消除阴影和反光干扰。

       该系统有以下优势:

       1)全检覆盖:关键表面(齿面、端面、轴颈)100%检测;

       2)数据追溯:缺陷信息实时记录并与MES系统集成,支持质量追溯与工艺优化;

       3)柔性适配:通过调整训练数据与参数,可快速迁移至其他轴类零件检测。
 
设备布局图
图2 设备布局图

2 项目具体实施

       2.1 结构设计

       为全面覆盖齿轮轴的关键检测区域(如齿面、端面、轴颈),采用多角度相机协同成像方案:面阵相机:选用Basler acA2440-75μm(分辨率2448×2048,帧率75fps),负责全局成像与粗定位;线阵相机:配置Teledyne DALSA Linea ML(分辨率8k像素,行频80kHz),用于高速扫描齿面细节。在齿轮轴轴线两侧对称布置两台面阵相机,俯角15°,覆盖齿面与端面;部安装线阵相机,垂直向下,配合旋转平台实现360°齿面扫描(图3)。通过PLC发送脉冲信号,控制相机与旋转平台同步动作,确保图像采集时序一致性。
 
设备设计图
图3 设备设计图

       2.2 构建AI视觉算法和模型

       多光源设计:在图像采集环节,采用多角度、多强度的光源组合,减少阴影和反光干扰。

       在预处理阶段,使用直方图均衡化(Histogram Equalization)或Retinex算法,增强图像对比度并消除光照不均。在训练数据中模拟不同光照条件下的图像。使用生成对抗网络(GAN)或自编码器(Autoencoder)去除光照影响,提取光照不变的特征,齿轮等零件表面可能存在复杂的纹理、划痕或加工痕迹,容易与真实缺陷混淆。

       纹理分析与特征提取:使用局部二值模式(LBP)、灰度共生矩阵(GLCM)等传统方法提取纹理特征,结合深度学习模型进行区分。在深度学习模型中引入多尺度卷积(如Inception模块),捕捉不同尺度的纹理和缺陷特征。在模型中引入注意力机制(如Self-Attention或CBAM),让模型聚焦于缺陷区域,忽略无关纹理。

       2.3 调整AI视觉判定模型的准确率

       传统方法的局限性:传统的齿轮磕碰检测主要依赖人工目检或简单的自动化设备,容易受到主观判断、疲劳等因素影响,导致漏检或误检。快速检测能力:AI系统可以在毫秒级时间内完成单个齿轮的检测,大幅缩短检测周期,满足生产线的高节奏需求。该技术可以实现全自动化检测,减少人工干预,提高生产效率并降低人力成本。

       采用PyQt5作为开发框架,其优势在于跨平台兼容性(支持Windows/Linux)、丰富的UI组件库以及高效的信号槽通信机制,便于快速构建工业级交互界面。

       实时监控:动态显示相机采集图像、缺陷标注框及检测结果(如缺陷类型、位置、置信度);支持光源亮度、相机曝光时间、旋转平台转速等参数在线调整;内置SQLite数据库,存储检测历史记录(时间戳、缺陷类型、图像路径等),支持按批次、日期或缺陷类型查询。

       系统可以自动导出Excel或PDF格式的检测报告,包含缺陷统计图表、过程能力指数(CPK)分析。

       2.4 技术创新点

       提出一种改进的AI模型架构,通过跨光照域特征对齐,将不同光照条件下的齿轮图像映射至统一亮度空间。生成器采用U-Net结构,包含跳跃连接以保留局部细节;专注于局部纹理一致性。并且集成检测结果与MES系统,实现缺陷批次自动锁定与工艺参数优化建议。

3 实施效果

       通过视觉检测设备配合AI检测替代目前人员目视,同时能够将产品关键表面进行全检,提高生产品质,避免由于人工检测带来的标准不一致,漏检测等问题。

       3.1 检测性能验证

       系统集成与调试通过模块化设计、标准化协议与多维度优化,实现了硬件、算法与软件的高效协同。

       从零件上料、图像采集、缺陷判定到分拣下料,验证各环节协同性;测试最小可检缺陷(0.5×0.5mm)、最大检测速度(30秒/件),最终系统在工业现场表现稳定,对1,500组测试样本中,误检率0.3%(表1)。
 
表1 检测性能对比
检测性能对比

       3.2 经济效益分析

       1)成本节约:年减少人工成本65万元,废品率降低34%;

       2)质量提升:客户投诉率下降69%,缺陷漏检率≤0.3%;

       3)效率优化:检测节拍提升4.1倍,支持生产线24小时连续运行。
 
视觉检测
图4 视觉检测

       该系统还可进行功能扩展:

       1)远程运维:设备支持远程诊断与算法OTA升级;

       2)数据分析:内置SPC(统计过程控制)模块,自动生成CPK趋势图,辅助工艺优化;

       3)微小缺陷检测:可识别0.5×0.5mm的磕碰缺陷(图5)。
 
应用效果图
图5 应用效果图

4 结论

       本研究针对齿轮轴外观检测中人工目视效率低、标准不统一的行业痛点,提出了一种基于深度学习的全自动化视觉检测系统。通过多光源协同成像、改进视觉模型与动态阈值机制的结合,实现了对微小缺陷(的高精度识别。实验结果表明,系统在复杂工业环境下的,误检率低至0.3%,单件检测时间≤30秒,显著优于传统算法与人工检测方案,为智能制造场景下的质量管控提供了新范式。
责任编辑:程玥
本文为e-works原创投稿文章,未经e-works书面许可,任何人不得复制、转载、摘编等任何方式进行使用。如已是e-works授权合作伙伴,应在授权范围内使用。e-works内容合作伙伴申请热线:editor@e-works.net.cn tel:027-87592219/20/21。
读者评论 (0)
请您登录/注册后再评论