智能监控告警系统设计与实现
这是一篇关于视频监控系统,目标检测,图像配准,双光融合的论文, 主要内容为近年来,由于视频监控系统在安防领域发挥了重要作用,它的规模日益壮大,人们对监控系统智能化的需求也随之增长。因此,将日益精进的计算机视觉技术应用于实际的监控系统十分必要,可以显著减少其对人工的依赖。本文针对实际边防监控需求,研发了基于目标检测和双光融合的智能监控告警系统。软件采用了C/S架构,其中作为系统核心的服务端具有图像采集、目标检测和双光融合等功能。为了保证系统实时性,本文基于发布订阅模式设计并实现了一种高效的流水线框架,借助模块化思想与多线程充分提高运行效率,具有松耦合和可扩展等优点。而客户端主要负责与用户进行交互,通过SRIO协议与服务端进行通信。针对目标检测功能,本文在YOLOv4的基础上做了改进以兼顾实时性与准确性。鉴于实际应用场景中目标尺度大多集中于小尺度范围,本文使用了递归特征金字塔RFP进行特征融合以加强算法对小目标的检测效果;并且提出了一种混合注意力模块EEAM,在强化算法对重要目标关注度的同时抑制背景特征。本文在自行采集的私有数据集上进行了实验,对比标准YOLOv4算法本算法的检测精度提升可达4%。双光融合功能的实现需要以可见光和红外图像的配准作为前提。本文基于点特征实现了异源图像配准,首先使用SURF算法提取图像特征,再借助双向匹配和RANSAC算法进行特征匹配,该配准算法有效且稳定。在双光融合功能的实现上,本文提出了一种基于多尺度变换和BASNet显著性检测的双光融合算法,借助均值滤波进行双尺度分解,并通过BASNet显著性检测以及引导滤波计算出信息分配权重,该算法的速度领先CNN、FPDE等其他算法至少一个数量级。系统测试结果表明,本文提出的流水线架构充分保证了监控系统的稳定性与高效率,并在此前提下完成了目标检测、双光融合等功能,一定程度上实现了实时智能监控。
数控铣削刀具磨损监测与加工误差补偿
这是一篇关于铣刀磨损,机器视觉,图像配准,注意力机制,误差补偿的论文, 主要内容为随着现代制造业的发展,对数控机床的加工精度要求越来越高。尤其在难加工材料的铣削过程中,铣刀磨损非常严重,是加工误差的主要来源。因此,监测铣刀磨损状态,并针对不同磨损状态进行补偿,对于提高加工精度和效率具有重要的意义。本文以自动化、智能化的检测-加工-补偿一体化集成为目标,研究了在铣削加工过程中的刀具磨损检测以及磨损造成的误差补偿技术。首先,本文搭建了基于机器视觉的铣刀磨损检测系统并开发了相应软件。根据在加工间隙监测铣刀磨损情况的需求,使用远心镜头及环形光源捕捉铣刀表面图像,使用变焦镜头及背光源采集铣刀轮廓图像。然后基于Spring Boot及React JS框架,将相应功能集成于“南高云”数控机床智能化云平台,实现整个分析流程的云端监控及管理。其次,本文提出了一种基于特征点输入的图像快速配准合成算法。先进行SURF特征点检测,并找到待配准图像的局部中心对称点作为铣刀刀尖的参考点,将多张待配准图像的刀尖点作为已知量输入。再从刀尖点附近开始搜索特征点匹配对,经过反复迭代,得到匹配效果最好的配准特征点对。该创新方法将刀尖点作为已知点输入,因此无需在多张待配准图像中随机搜索,提高了配准效率和精度,同时降低了误匹配点数量。然后,针对铣刀刀刃磨损情况,本文提出了一种基于边缘检测和轮廓建模的磨损图像在线处理工作流,对铣刀旋转包络面形状进行建模以分析磨损形态。通过多次获取刀具整体轮廓图像,经过畸变矫正、滤波和图像增强后,采用Canny算子及改进Zernike矩方法获得铣刀边缘的精确定位。然后重建铣刀高速旋转时形成的与工件直接接触的包络面轮廓模型,以此作为磨损造成误差的补偿依据。该创新工作流解决了磨损造成的铣刀形态变化难以在线建模的问题,使得在线采集的铣刀轮廓图像不仅可以作为铣刀磨损状态监测的依据,也能作为对铣削过程中磨损造成误差进行补偿的模型基础。再次,针对铣刀磨损状态分类任务,本文提出了改进的注意力分支网络(ABN)。通过优化ABN的网络结构,并改进训练损失函数的计算方式,使其更适用于铣刀磨损状态分类这一细腻度图像分类任务。通过引入注意力机制,将注意力图作为训练过程中的反馈,提升了模型的可解释性。同时,针对注意力区域的训练,将寻找最佳注意区域作为模型训练的目标之一,将注意力权重在原图中标注形成的注意力图作为增强特征,使模型的关注区域从整张图片缩小到铣刀表面图像的磨损区域,因此可以将磨损特征与其他特征解耦,提升了铣刀图像磨损状态分类任务的准确性和模型的泛化能力。最后,针对铣削加工代码自动生成技术及铣刀磨损造成误差的补偿策略进行研究。为保证处理流程的自动化,本文开发了铣削加工代码自动生成模块,以作为补偿的参考。首先针对原料和工件的三维模型图STL文件进行对比分析,获得去除部分材料的形状和尺寸,然后拾取轮廓的关键点坐标,根据输入的工艺参数,采用分层铣削的思想,生成铣削轨迹及加工代码。然后对刀轴轨迹面和铣刀旋转包络面的几何关系进行建模分析,采取不同的策略完成侧铣加工和点铣加工刀路的修正及加工参数的优化。
基于摄像头图像分析的夜景灯故障检测研究
这是一篇关于夜景灯,图像配准,图像检测,混合模式,图像分割的论文, 主要内容为随着社会现代化的高速发展,夜景灯在城市化进程中被广泛使用。夜景灯不仅能为城市夜晚提供照明效果,而且能美化城市的夜景。目前夜景灯故障检测技术主要为人工巡检和远程摄像机监控为主,存在检测不及时、耗费大量人力的缺点,如何快速有效地检测出夜景灯故障是目前工程上亟待解决的问题。论文在分析现有图像检测技术基础上,提出了一种基于混合模式的夜景灯故障自动检测方法。同时针对夜景灯光摄像机在实际应用中可能出现的抖动偏移等问题,提出了一种改进的图像配准算法,从而保证采集图像与原模板的一致性,在确保检测率的同时,大大降低了检测误报率。论文主要工作包括:(1)针对夜景灯故障检测缺乏及时性、高效性以及人工参与过多的问题,提出了一种基于混合模式的夜景灯故障自动检测方法。该方法是对夜景灯构建特征模板,通过模板匹配对实时采集的夜景灯图像实现精准高效的故障检测。在特征模板的构建过程中,通过对夜景灯图像进行预处理,有效地消除夜景灯图像中噪声信息的同时,也能提高图像的清晰度。其次,将最大类间方差算法与贝叶斯算法相结合对夜景灯图像中夜景灯区域进行分割。最后,将四叉树算法和最小外接矩形算法相结合提取夜景灯的特征模板,提高算法的运行速度与效率。实验结果表明该混合式检测法对于常见的夜景灯光检测具有较好的可靠性和检测效果。(2)针对摄像机采集夜景灯图像时发生抖动的问题,提出了基于改进的图像配准算法的夜景灯配准方法。该方法能够对夜景灯图像中的特征信息进行有效的提取,并通过特征信息对夜景灯图像进行配准。这样在使夜景灯图像位置映射到图像模板位置的同时,也有效地提高了夜景灯故障检测的精确性。最终的实验结果表明,该方法消除了发生抖动的影响,极大降低了检测的误报率。(3)设计了夜景灯故障检测系统。利用opencv等技术,以及SSM框架实现了离线的模板建立以及在线检测功能,集成了本文所提出的夜景灯故障检测算法,目前系统已经成功在多地进行了部署,达到了实时、高效、准确的夜景灯故障检测效果。
基于深度学习的3D头部MR图像配准方法研究
这是一篇关于图像配准,头部MR图像,卷积神经网络,Transformer,级联网络的论文, 主要内容为头部核磁共振(Magnetic Resonance,MR)成像是一种非侵入性的影像学技术,利用磁场和电磁波来生成高分辨率的头部三维图像,以显示头部结构和脑组织的详细信息。在医学领域中,头部MR图像广泛应用于医学诊断、治疗和研究,是医生的决策和手术规划的重要工具。随着计算机辅助诊断技术在各类医学图像分析任务的广泛应用,图像配准技术成为一个重要的医学图像预处理步骤。为了实现头部MR图像的精确配准和融合,本文提出了以下三种基于深度学习的医学图像配准方法:(1)为了解决一般配准方法无法处理头部MR图像复杂空间信息和位置信息的问题,本文提出了一种基于深度学习的多尺度特征融合配准网络(简称MFF-net)。该网络由三个按顺序训练的模块组成,第一个模块是实现仿射变换的仿射配准模块。第二个模块是实现非刚性变换,由自顶向下和自底向上特征融合子网络并联而成的可变形配准模块。第三个模块是同样实现非刚性变换,由两种特征融合子网络串联而成的可变形配准模块。该网络通过多尺度逐步配准的方式,将大位移的变形场分解为多个小位移的变形场,降低了配准难度。同时,通过特征融合子网络两种方式的连接,针对性的学习了头部MR图像中的多尺度信息,提高了复杂空间和位置的配准效果。计算该网络配准后的四个指标值:DSC(Dice Score)为0.747±0.020、HD(Hausdorff Distance)为3.350±0.882mm、ASD(Average Surface Distance)为0.695±0.087mm、Std.Jacobian(Standard deviation of the Jacobian Matrix)为0.379±0.032。(2)为解决级联网络在进行头部MR图像级联配准时,模型过于复杂导致参数量过大的问题,本文提出了一种基于深度学习的通道注意力级联配准网络(简称CACnet)。该网络由多个子网络级联组成,包括两种不同的子网络:一种是预测仿射变换的仿射配准子网络,另一种是预测变形场的可变形配准子网络。为了进一步加强特征表达能力,本文在可变形配准子网络中加入了注意力机制来分配特征权重。然后,按照顺序将仿射配准网络和少数几个通道注意力网络级联起来,每个子网络的输出都作为下一个子网络的输入。在训练时,所有子网络的参数都会被同步更新,以便更快地收敛。通道注意力机制让网络可以有选择地关注特征图中较重要的通道,忽略不重要的通道,从而在不牺牲配准精度的情况下减少了网络参数量,减轻了级联网络的训练负担。计算该网络配准后的四个指标值:DSC为0.739±0.024、HD为3.559±0.689mm、ASD为0.763±0.103mm、Std.Jacobian为0.457±0.058。(3)为解决基于卷积神经网络(Convolutional Neural Networks,CNN)的配准模型在配准时,由于感受野小而导致预测大位移形变困难和变形场局部失真的问题,本文提出了一种基于深度学习的Transformer-CNN混合级联配准网络(简称TCHCnet)。该网络由多个子网络级联组成,其中包括预测仿射变换的仿射配准子网络和预测变形场的可变形配准子网络。在可变形配准子网络的编码器阶段,本文采用了三个Swin-Transformer块来进行下采样;在解码器阶段,本文使用传统的卷积层,并利用跨连接结构将编码器和解码器阶段相同分辨率的特征图进行融合。在SwinTransformer块中,自注意力机制可以帮助网络更容易学习和捕捉图像中长距离像素点之间的相互依赖关系,进而更容易学习到像素间的大位移形变。计算该网络配准后的四个指标值:DSC为0.752±0.022、HD为3.232±0.643mm、ASD为0.697±0.098mm、Std.Jacobian为0.483±0.065。将上述三种方法的配准结果进行对比发现:MFF-net利用不同配准模块来提取多尺度特征,在配准细节方面处理的效果最好。CAC-net网络参数量最小,结构最简单,最容易实现,在达到差不多配准效果的条件下,最节省计算资源。TCHC-net网络拥有较大的感受野,利于提取宏观和抽象的特征,预测出的变形场更连续,在3D头部MR图像上实现了最佳的配准性能。
基于描述符和U-Net的遥感图像配准算法研究
这是一篇关于描述符,U-Net,遥感图像,图像配准,SURF的论文, 主要内容为经过数十年的发展,人工智能技术发展极为迅速,图像处理技术发展的越来越成熟,图像配准作为图像处理领域中一个重要的分支,在学术界引起了广泛的关注,与此同时,图像配准也在众多领域中得到了广泛的应用,如机器视觉、医学科学、地理遥感等领域。然而,随着3D图像优化的高复杂性,很难定义参考图像与待配准图像之间差异,如果没有逐像素对齐的数据,就很难训练生成式对抗网络(Generative Adversarial Networks,GAN)生成合成图像,其中所有纹理都准确地映射到参考图像。目前许多工作提出了遥感图像自动配准的技术,但是,在处理不同的图像时的性能,还没有进行全面的研究来分析这些技术。针对以上问题,本论文的主要研究点如下:1、在不同条件下拍摄的遥感图像可能会呈现非线性变化。这些图像的配准是一个重要的过程。描述符具有独特性,主要体现在对观察条件变化和传感器错误方面展现出鲁棒性。本文将检测器与描述符分开,它们的性能取决于所使用的兴趣点检测器。2、提出了对彩色图像的SURF算法的优化,称为O-SURF,它是MSER检测器和SURF描述符的组合。该方法使用MSER检测器提取兴趣点集,并使用SURF描述符对其进行描述。O-SURF描述符的计算成本可以通过实现并行计算来降低。实验结果表明,与基本SURF版本相比,提出的改进是有效的。3、基于地理遥感图像U-Net配准网络的基础上,本文改进一种半监督对抗性与注意力机制相结合的U-Net图像配准网络模型。该方法由以上采样和卷积为主的解码器和编码器两部分组成,利用相加操作将编码器的特征信息进行整合;之后将空间注意力机制与通道注意力机制结合,引入卷积层与池化层之间,融合之后的特征能够对地理遥感图像中无关区域进行抑制,突出地理超遥感的显著特征;最后结合空间变换与对抗行相似优化,实现最终的图像配准。4、在地理遥感数据集评估了半监督对抗性与注意力机制的U-Net配准的方法,通过仿真实验证明,与其它经典配准方法相比,该方法在配准精度与速度上都有较大的提升。本文对SIFT、GLOH、SURF、PCA-SIFT和SURF-HISTEQ这五个描述符进行了比较。所提出的图像配准技术旨在解决遥感图像中的准确性、鲁棒性、速度和自动化等经典问题。实验结果表明,与基本SURF版本相比,本文提出的O-SURF改进是有效的。基于多模态地理超遥感图像U-Net配准网络的基础上,改进了一种半监督对抗性与注意力机制的U-Net配准网络相结合的方法。在地理数据集评估了我们的方法,实验表明,与深度学习的配准方法相比,该方法在配准准确性和效率方面都有较大的改进。
本文内容包括但不限于文字、数据、图表及超链接等)均来源于该信息及资料的相关主题。发布者:代码货栈 ,原文地址:https://bishedaima.com/lunwen/48255.html