5篇关于目标识别的计算机毕业论文

今天分享的是关于目标识别的5篇计算机毕业论文范文, 如果你的论文涉及到目标识别等主题,本文能够帮助到你 基于机器学习的目标行为认知技术研究 这是一篇关于缺失数据,机器学习

今天分享的是关于目标识别的5篇计算机毕业论文范文, 如果你的论文涉及到目标识别等主题,本文能够帮助到你

基于机器学习的目标行为认知技术研究

这是一篇关于缺失数据,机器学习,目标识别,行为分析,知识图谱的论文, 主要内容为随着作战环境的日益复杂,作战受到时间和空间的限制,因此作战系统应具备高效的信息处理速度和快速的综合反应时间,这就要求作战设备应具备对未知目标准确而快速的识别能力和从信息中进一步理解目标行为意图的能力。目标行为认知是战场态势评估和威胁评估的基础,对提高作战能力有着极其重要的意义,已成为国内外一个重要的研究性课题。目标行为认知是一个从感知数据到认知行为的过程。在先前的目标行为认知研究中,往往依靠人工进行特征提取,不仅费时费力而且无法有效处理信息系统的海量信息。机器学习具有强大的自学习能力和海量信息处理能力,以其为核心的知识图谱技术也发展得如火如荼,在许多领域取得了不错的成果。考虑到目标行为认知应具有准确快速的特点,可以借助机器学习强大的自学习能力和海量信息处理能力实现,因此,本文结合机器学习方法,对目标识别、目标行为分析两大方面进行了研究。针对常规机器学习算法无法学习时序数据规律的问题,本文研究了具有长期记忆能力的LSTM网络的目标识别性能,设计了LSTM网络识别模型,对该模型的构建及训练进行了详细叙述,并研究了LSTM网络的噪声敏感性,仿真结果表明,LSTM网络在低信噪比下识别率较高,噪声稳健性良好。针对实际获取的传感器数据往往存在不同程度缺失的问题,本文提出一种基于主成分分析的移动滑窗数据填充算法,通过主成分分析计算出相邻各属性对缺失项的属性影响值,加入到移动滑窗数据填充结果中,这样不仅考虑了数据的时序关系,同时考虑了相邻属性之间的相互关系。仿真结果表明该填充算法具有良好的数据恢复率,可以学习关键信息的LSTM网络在数据缺失的场景下也具有良好的识别性能。针对传统的信息系统无法有效对海量信息分析、组织和利用的问题,本文在目标识别的基础上,提出了一种基于知识图谱的目标行为挖掘与检索分析技术架构,以知识检索的形式得到目标行为信息。该架构从时间维度上组织知识,考虑了不同时间段之间知识存在的联系,将目标的静态属性信息和动态知识信息相结合,依据提取出的知识信息对目标行为进行挖掘分析,实现了对知识的有效组织和充分利用。采用数据采集、知识抽取、知识的存储与检索、知识图谱分析这样的技术路线进行研究。在知识抽取方面,采用基于领域词、辅助词配合正则表达式的方式进行实体识别、关系识别、属性识别,确保知识抽取的准确性和鲁棒性。最后,对形成的知识图谱以及检索出的信息进行分析,证明了该架构具有优异的性能。

双孢菇采摘机器人研发及关键技术研究

这是一篇关于双孢菇采摘机器人,深度学习,目标识别,空间定位的论文, 主要内容为本文根据双孢菇自动采摘需求,综合调研种植基地双孢菇生长规律、苗床参数、人工采摘方法及要求,分析国内外研究现状,开展双孢菇采摘机器人的设计及研发。针对机器人方案设计、复杂背景下双孢菇识别定位方法、直径测量方法关键问题进行分析,设计开发机器人机电系统和视觉系统,实现双孢菇识别、定位、直径测量和采摘功能。通过室内实验和工厂试验,验证了双孢菇采摘机器人的性能,为双孢菇工业化采摘奠定基础。论文的主要研究内容如下:(1)设计和开发了双孢菇采摘机器人机电系统。设计双孢菇采摘机器人机电系统方案,包括结构方案和控制系统方案。设计一种基于负压吸摘的双孢菇采摘末端执行器,通过吸附-旋转-提升三个连续动作实现双孢菇的采摘。(2)设计和开发了双孢菇采摘机器人视觉系统,完成双孢菇图像采集和数据集的制作。设计了机器人视觉系统总体方案,采集双孢菇不同密集程度下图像数据,应用多种数据增强的方法对双孢菇图像进行扩充。(3)提出一种基于深度学习和Hough的双孢菇识别定位与直径测量方法。对比分析3种深度学习模型的识别效果。将RGB图像中的几何中心特征点与深度图像匹配,实现双孢菇的空间定位。在Mask R-CNN模型输出掩膜图的基础上,结合Hough圆检测,实现双孢菇直径测量。(4)完成双孢菇采摘机器人室内实验及工厂试验,验证采摘机器人的性能及可靠性。通过双孢菇空间定位算法进行误差分析实验,实验证明双孢菇三个方向误差范围为-3~3.5mm。双孢菇直径测量误差分析实验结果显示绝对误差均值为1.93mm,相对误差均值为4.12%。最终在双孢菇种植工厂进行机器人测试,包括功能测试和性能测试,双孢菇目标识别准确率可达92.55%,采摘成功率为83.14%,单个双孢菇采摘用时为15.47s,满足大部分双孢菇的采摘要求。

SAR图像参数与目标检测识别性能关联性建模方法研究

这是一篇关于合成孔径雷达,图像参数,关联性建模,目标检测,目标识别的论文, 主要内容为合成孔径雷达(SAR)目标检测识别是实现SAR成像技术应用的关键环节,而图像质量的变化对目标检测识别性能有直接影响,进而影响合成孔径雷达技术在战场侦察、精确打击等领域的应用效能。因此,建立图像质量与目标检测识别性能之间的关联性并定量分析图像质量对目标检测识别性能的约束关系,可以为SAR成像系统设计优化、性能评估以及特定目标识别任务资源配置提供理论依据。基于上述分析,本论文围绕SAR图像质量参数选取、图像质量与SAR目标检测识别性能关联性等问题开展了研究工作,主要工作如下:分析了SAR图像质量评价指标,明确了影响图像质量的主要因素,分别从模糊度、噪声水平和对比度三方面设计了图像参数。通过计算仿真得到的不同质量SAR图像的图像参数,并与经典的结构相似性参数进行比较,证明了本文提出的图像参数的有效性。研究了SAR图像质量与目标检测性能之间的关联性。采用基于高斯分布和基于G0分布的两种CFAR检测器,对不同图像质量的SAR图像进行检测,并使用检测结果与真值之间的交并比来描述检测性能。选取两个具有代表性的数据集,采用线性拟合方法,分别建立了模糊度、噪声水平及对比度与SAR目标检测性能之间的关联性模型,并通过分析确定了地面中型车辆群(如M-55式自行榴弹炮)和海面小型舰船群在满足高检测性能(交并比值大于85%)和基本检测性能(交并比值大于70%)的要求下,所需要的模糊度和噪声水平。研究了图像参数与目标识别性能的关联性。选取两个具有代表性的数据集,并采用单一降质和双重降质的方法对数据集进行处理,采用基于Res Net18的目标识别网络开展了目标识别试验,基于SAR图像模糊度、噪声水平和对比度指标,分析了识别网络在降质数据集上的识别性能。通过线性回归建立图像参数与目标识别率之间的关联性模型,并通过分析确定了地面小型车辆目标和海面大型舰船目标满足高识别性能(目标识别率大于85%)和基本性能(目标识别率大于60%)所需要的分辨率和噪声水平。

基于深度学习的森林火灾烟雾识别方法研究

这是一篇关于森林火灾烟雾,深度学习,YOLOv7算法,目标识别的论文, 主要内容为为降低森林火灾事故频发带来的经济财产损失,对森林火灾及时准确进行监测并将其遏制在萌芽状态至关重要。由于森林火灾图像背景复杂,烟雾形态多变,与烟雾类似的水雾、云等干扰因素较多,导致传统基于图像处理的森林火灾烟雾识别方法难以准确提取烟雾特征,模型存在准确率低、泛化能力较差等问题。当前基于深度学习的烟雾识别方法通过自动学习图像烟雾信息达到识别烟雾目的,但此方法也存在数据样本过少、识别精度低、响应速度慢等问题。针对上述问题,提出了一种基于YOLOv7的森林火灾烟雾高效监测及预警方法。本文主要工作如下:(1)通过无人机拍摄和网络收集整理了一组森林火灾烟雾数据集,涵盖了数量、烟雾场景、干扰情况等多个维度的因素;利用Label Img工具对图像中烟雾利进行标注,标签为smoke,并将其制作成VOC2007格式的数据集;利用翻转、亮度、旋转、对比度调节、亮度调节和增加椒盐噪声等数据增强手段对烟雾数据进行预处理,防止模型出现过拟合现象。(2)将预先在Image Net上训练过的YOLOv7、SSD和Faster RCNN模型迁移到森林火灾烟雾场景中并考察其可行性。对比分析不同模型的烟雾识别性能,结果表明采用迁移学习方法训练模型可以提升模型的收敛速度和识别精度,证明了迁移学习的有效性和优越性,且基于YOLOv7迁移的烟雾识别模型表现最好,平均精度达到88.01%。(3)针对YOLOv7模型对火灾初期薄烟雾和小烟雾的识别效果较差问题,提出了一种改进的YOLOv7模型。通过在主干特征网络中加入EPSANet和SANet注意力机制,弥补网络对多尺度空间特征提取能力不足问题;采用Bi FPN网络替代原始PANet网络提高对多维特征的融合能力;基于K-means++算法对烟雾数据集进行重新聚类,得到适用于森林火灾烟雾的先验框;利用解耦头将预测框分类与定位任务进行解耦,并对损失函数进行优化,提高模型识别精确度和模型收敛速度。实验结果表明,改进后的YOLOv7-w模型在烟雾识别平均精度达到93.02%,比YOLOv7提高了5.01%。(4)针对YOLOv7-w模型网络参数量较高,推理速度较慢,无法满足轻量化部署要求等问题,对YOLOv7-w模型进行了两部分改进:第一部分,引入轻量化的Ghost卷积和DSConv卷积分别对主干网络进行重构,大幅度降低模型参数量;第二部分,选取识别效果较好DSConv-YOLOv7-w轻量化网络模型,采用剪枝算法消除该网络模型的冗余通道,并对剪枝后的模型进行微调提高烟雾识别效果。与YOLOv7-w模型相比,改进后的YOLOv7-wl模型参数量减少了4.27M达到4.3M,识别速度提升了19 f/s,达到56 f/s。结果表明改进后的模型能够对烟雾区域进行高效识别,降低了对硬件设备的计算要求,对森林火灾监测具有重要应用价值。

基于深度学习的ISAR成像和识别方法研究

这是一篇关于逆合成孔径雷达,深度学习,时频分析,机动目标,目标识别的论文, 主要内容为逆合成孔径雷达(ISAR)受环境干扰和非合作目标复杂的运动状态影响,其成像结果通常存在分辨率低,噪声强等问题,而不清晰的成像结果也会对后续的目标识别造成不良影响,因此ISAR成像和识别一直是雷达领域的重要研究方向。本文利用逆合成孔径雷达成像原理,重点研究了基于深度学习方法的机动目标自聚焦成像方法、基于卷积神经网络的目标识别等关键技术。本文首先说明了逆合成孔径雷达成像的整体流程,包括距离压缩,运动补偿和方位压缩等处理方法。之后详细的介绍了距离-多普勒算法和基于时频分析的瞬时成像算法,通过对不同目标的仿真数据和实测数据成像来说明成像方法的有效性,并讨论了不同成像方法的特性及优缺点。其次,针对传统时频分析方法无法同时满足时频聚焦性高和无交叉项的问题,本文提出一种基于Res U-Net网络的ISAR自聚焦成像算法,利用Res U-Net网络对基于短时傅里叶变换的成像结果进行后处理,实现了成像质量的提升并抑制噪声。本文利用不同目标的实测和仿真数据验证了算法的可行性,并以图像熵作为图像质量的评判准则,将所提出的算法与经典算法对比分析。除此之外,针对ISAR像由于干扰和变形难以提取形态特征的问题,设计了可以自动提取有效特征的基于卷积神经网络的ISAR像识别方法。首先对数据集进行扩充和增强,再采用VGG16,Goog Le Net,Alex Net等经典卷积神经网络的巨量参数拟合ISAR像和所属类别的关系。对于飞机目标,在对雅克-42、安-26、奖状飞机三类飞机的识别任务中,表现最优的网络为Goog Le Net,优化后准确度提升到99.7%。利用基于Res U-Net算法所成的飞机数据集识别准确率高于基于STFT的成像算法,说明了提升成像性能对提升识别能力的有效性。对于舰船目标,在对大型船、小型船、军舰三类舰船的识别任务中,表现最优的网络为VGG16,优化后准确度提升到97.1%。

本文内容包括但不限于文字、数据、图表及超链接等)均来源于该信息及资料的相关主题。发布者:源码导航 ,原文地址:https://bishedaima.com/lunwen/45336.html

相关推荐

发表回复

登录后才能评论