根据本发明的一个方面,在所述s11中,对所述端面和凸台按照如下公式的模板匹配获得r(x,y)值时得到两组值(x1,y1,phi1;x2,y2,phi2)分别代表定位的x坐标、y坐标和角度:
根据本发明的一个方面,所述步骤s14包括:所述步骤s14包括:按照imagemerge1=k1*image1+k2*image2+b对所述凸台图片和端面图片进行融合,再按照imagemerge2=a*imagemerge1+b获得终的融合图片;
本发明对于镜头上下表面的检测,通过镜片区域减去屏蔽区域获得有效检测区域,并将多张图片的有效检测区域进行融合,进行一次缺陷检测,有效提升了检测结果的准确性。
具体实施方式
为了更清楚地说明本发明实施方式或现有技术中的技术方案,下面将对实施方式中所需要使用的附图作简单地介绍。显而易见地,下面描述中的附图仅仅是本发明的一些实施方式,对于本领域普通技术人员而言,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
目标定位是计算机视觉领域中基本的任务之一,同时它也是和传统意 义上缺陷检测接近的任务,其期的是获
得目标的位置和类别信息。目前, 基于深度学习的目标检测方法层出不穷,-般来说, 基于深度学习的缺陷
检测网络从结构.上可以划分为:以Faster R-CNN为代表的两阶段(two stage)网络和以SSD或YOLO为代表的一
阶段(one stage)网络。两者的主要差异在于两阶段网络需要首先生成可能包含缺陷的候选框(proal),然后在
进一步进行目标检测。-阶段网络直接利用网络中提取的特征来预测缺陷的位置和类别。
检测对象:钢表面缺陷
主要方法:基于Faster R-CNN的带钢表面缺陷检测网络,该网络的改进在于提出的多级特征融合网络( MFN )
将多个分层特征组合成一个特征 ,可以包括缺陷的更多位置细节。基于这些多级特征,采用区域提议网络
( RPN )生成感兴趣区域( ROI ) .在缺陷检测数据集NEU-DET.上,提出的方法在采用ResNet-50的
backbone'下实现了82.3%的mAP。
以上信息由专业从事隐形眼镜缺陷检测批发的宣雄于2024/6/28 8:21:48发布
转载请注明来源:http://m.tz1288.com/qynews/szxxznlj-2777149488.html