6个研究背景和意义示例,教你写计算机去模糊论文

今天分享的是关于去模糊的6篇计算机毕业论文范文, 如果你的论文涉及到去模糊等主题,本文能够帮助到你 基于ZYNQ的二维码识别系统设计与实现 这是一篇关于二维码识别,深度学习

今天分享的是关于去模糊的6篇计算机毕业论文范文, 如果你的论文涉及到去模糊等主题,本文能够帮助到你

基于ZYNQ的二维码识别系统设计与实现

这是一篇关于二维码识别,深度学习,目标检测,去模糊,ZYNQ,Vitis AI的论文, 主要内容为二维码自动识别技术是工业物联网、制造业、物流管理和消费行业等领域的关键技术之一。传统二维码识别厂商的产品采用模式识别和小波变换等图像处理算法,但二维码图像可能会受其他图像元素的干扰,同时受到模糊和噪声等因素的影响,导致传统二维码识别产品的准确率偏低。近年来,深度学习在图像处理领域的研究方兴未艾,使得复杂环境下基于深度学习的二维码识别准确率提升问题成为研究热点。本文主要研究工作包括以下三个方面:(1)本文首先明确系统总体设计方案,整体方案包括目标检测算法、图像去模糊算法以及系统实现与测试。然后为了满足低成本和高可定制化,选择ZYNQ平台搭配OV5640摄像头作为硬件部分设计;最后在软件设计部分中,通过设计三级检测机制保持识别速度,为获得较好的识别性能,选择Vitis AI对深度学习模型进行量化和编译,ZYNQ端完成Linux系统移植、算法部署和总体系统实现。(2)为了解决复杂场景下二维码的识别需求,本文对系统中的算法进行设计。首先设计二维码目标检测算法,在介绍了YOLOv3算法原理后增加了数据集Mosaic数据增强和K-means先验框聚合两种改进方法,实验部分在自制二维码数据集上对原算法和改进算法进行了性能测试,测试集结果显示改进方法在两种目标物的检测上mAP值分别为0.99和0.89,原方法的mAP分别为0.93和0.84,结果表明改进YOLOv3算法的性能更高,因此选择该方法作为二维码识别的前置算法。然后设计二维码图像去模糊算法,该算法基于图像去模糊原理,对图像中存在的高斯模糊和动态模糊进行去除。该方法在GAN(Generative Adversarial Network)模型框架下进行训练,选择DeblurGANv2中的Mobile Netv1作为生成器,PatchGAN作为判别器,为了有效去除二维码图像中的高斯模糊,增加相对熵损失函数。实验在自制二维码模糊数据集下进行训练并测试,对照算法分别为:DeblurGANv2原方法、SRN、CycleGAN,结果显示本文方法在测试集上的去模糊图片和原高清图片的PSNR和SSIM达到了22.68dB和0.866dB,好于其他三种对照算法。(3)首先在ZYNQ端完成硬件电路设计和Linux系统移植,然后通过Vitis AI对深度学习算法进行量化和编译,最后将模型部署至ZYNQ平台上并完成系统实现和测试。结果表明系统在复杂环境测试集上识别率为85.9%,高于实验对照的ARM平台,单张图片的识别速度达到了92ms,满足系统对速度的要求。

基于ZYNQ的二维码识别系统设计与实现

这是一篇关于二维码识别,深度学习,目标检测,去模糊,ZYNQ,Vitis AI的论文, 主要内容为二维码自动识别技术是工业物联网、制造业、物流管理和消费行业等领域的关键技术之一。传统二维码识别厂商的产品采用模式识别和小波变换等图像处理算法,但二维码图像可能会受其他图像元素的干扰,同时受到模糊和噪声等因素的影响,导致传统二维码识别产品的准确率偏低。近年来,深度学习在图像处理领域的研究方兴未艾,使得复杂环境下基于深度学习的二维码识别准确率提升问题成为研究热点。本文主要研究工作包括以下三个方面:(1)本文首先明确系统总体设计方案,整体方案包括目标检测算法、图像去模糊算法以及系统实现与测试。然后为了满足低成本和高可定制化,选择ZYNQ平台搭配OV5640摄像头作为硬件部分设计;最后在软件设计部分中,通过设计三级检测机制保持识别速度,为获得较好的识别性能,选择Vitis AI对深度学习模型进行量化和编译,ZYNQ端完成Linux系统移植、算法部署和总体系统实现。(2)为了解决复杂场景下二维码的识别需求,本文对系统中的算法进行设计。首先设计二维码目标检测算法,在介绍了YOLOv3算法原理后增加了数据集Mosaic数据增强和K-means先验框聚合两种改进方法,实验部分在自制二维码数据集上对原算法和改进算法进行了性能测试,测试集结果显示改进方法在两种目标物的检测上mAP值分别为0.99和0.89,原方法的mAP分别为0.93和0.84,结果表明改进YOLOv3算法的性能更高,因此选择该方法作为二维码识别的前置算法。然后设计二维码图像去模糊算法,该算法基于图像去模糊原理,对图像中存在的高斯模糊和动态模糊进行去除。该方法在GAN(Generative Adversarial Network)模型框架下进行训练,选择DeblurGANv2中的Mobile Netv1作为生成器,PatchGAN作为判别器,为了有效去除二维码图像中的高斯模糊,增加相对熵损失函数。实验在自制二维码模糊数据集下进行训练并测试,对照算法分别为:DeblurGANv2原方法、SRN、CycleGAN,结果显示本文方法在测试集上的去模糊图片和原高清图片的PSNR和SSIM达到了22.68dB和0.866dB,好于其他三种对照算法。(3)首先在ZYNQ端完成硬件电路设计和Linux系统移植,然后通过Vitis AI对深度学习算法进行量化和编译,最后将模型部署至ZYNQ平台上并完成系统实现和测试。结果表明系统在复杂环境测试集上识别率为85.9%,高于实验对照的ARM平台,单张图片的识别速度达到了92ms,满足系统对速度的要求。

基于卷积神经网络的名片识别研究

这是一篇关于名片识别,OCR,文本区域检测,去模糊,YOLO的论文, 主要内容为光学字符识别(OCR)目前在证件识别以及文档识别上有广泛的应用,通过将文字的图片数字化,从中快速提取出有用信息。传统的光学字符识别算法大多依赖于人工设计特征,通过模板匹配的方法实现特定场景的识别,因此,适用场景比较单一,泛化能力较差,处理名片识别的任务时效果不佳。此外,在处理文字间存在噪声干扰的图像上,传统的卷积递归神经网络(CRNN)的检测效果也不理想。因此针对上述问题,文本重点研究了基于深度学习的OCR名片识别从而弥补传统识别系统的不足。本文从信息提取的角度出发,利用OCR技术识别名片信息,进而将名片信息电子化,实现名片数据的结构化存储。基于传统方法以及当今主流方法的分析,文本进行了适当的改进与优化,实现了一种全新的基于卷积神经网络的OCR识别系统。在图像预处理方面,本文设计了一套针对于名片图像的预处理流程,如边缘检测,倾斜矫正等,以消除图片干扰因素的影响,并且,针对相机抖动造成的图像模糊情况,本文提出并实现了一种基于编码器/解码器网络的去模糊模型,以提高后续字符识别的效果;在文本区域检测方面,本文提出并实现了针对名片识别的文本区域检测方法,基于YOLO网络,使用固定宽度的文本图像,最终检测准确率提高了0.6%;在文本识别方面,为提高中英文混排情况下的识别率,进行了针对性的训练,使文本识别的准确率提高了1.6%。最后,在系统实现上,设计了系统的人机交互模式,采用B/S架构,在前端Web服务器上采用了高效的Flask框架。在后台服务器上,将OCR的各流程进行了模块化的设计,最终返回结构化的输出结果。

基于卷积神经网络的名片识别研究

这是一篇关于名片识别,OCR,文本区域检测,去模糊,YOLO的论文, 主要内容为光学字符识别(OCR)目前在证件识别以及文档识别上有广泛的应用,通过将文字的图片数字化,从中快速提取出有用信息。传统的光学字符识别算法大多依赖于人工设计特征,通过模板匹配的方法实现特定场景的识别,因此,适用场景比较单一,泛化能力较差,处理名片识别的任务时效果不佳。此外,在处理文字间存在噪声干扰的图像上,传统的卷积递归神经网络(CRNN)的检测效果也不理想。因此针对上述问题,文本重点研究了基于深度学习的OCR名片识别从而弥补传统识别系统的不足。本文从信息提取的角度出发,利用OCR技术识别名片信息,进而将名片信息电子化,实现名片数据的结构化存储。基于传统方法以及当今主流方法的分析,文本进行了适当的改进与优化,实现了一种全新的基于卷积神经网络的OCR识别系统。在图像预处理方面,本文设计了一套针对于名片图像的预处理流程,如边缘检测,倾斜矫正等,以消除图片干扰因素的影响,并且,针对相机抖动造成的图像模糊情况,本文提出并实现了一种基于编码器/解码器网络的去模糊模型,以提高后续字符识别的效果;在文本区域检测方面,本文提出并实现了针对名片识别的文本区域检测方法,基于YOLO网络,使用固定宽度的文本图像,最终检测准确率提高了0.6%;在文本识别方面,为提高中英文混排情况下的识别率,进行了针对性的训练,使文本识别的准确率提高了1.6%。最后,在系统实现上,设计了系统的人机交互模式,采用B/S架构,在前端Web服务器上采用了高效的Flask框架。在后台服务器上,将OCR的各流程进行了模块化的设计,最终返回结构化的输出结果。

基于多传感器信息融合的农田障碍物检测研究

这是一篇关于目标检测,多传感器,信息融合,深度学习,去模糊,YOLOv5s的论文, 主要内容为发展无人农机能有效推进农业科技进步,使我国农业不断呈现新的样貌。无人农机能代替农民工作,提升农机作业效率和质量。但农机行进路线上不可避免地存在一些动态和静态障碍物,例如树木、草堆、房屋、电线杆、人、牛、羊和其他行驶的拖拉机等,如果不对这些障碍物进行检测识别,无人农机与障碍物发生碰撞,将造成严重的经济损失乃至人员伤亡。因此,无人农机应具备较强的环境感知能力。本文的目的是构建一种鲁棒的农田障碍物检测方法,能有效改善利用单视觉传感器检测农田障碍物时遇到遮挡问题、未知障碍物、传感器失效时无法检测的情况;并且能提升农机获取到的障碍物信息的精确性和全面性,为后续精准避障奠定基础。因此,本文提出了一种基于多传感器信息融合的农田障碍物检测方法。该方法结合了毫米波雷达在测距测速以及相机在类型识别和横向定位的优势,采用决策级别的融合方式将数据关联成功的毫米波雷达有效目标序列和相机有效目标序列进行加权输出,输出的信息包括更精确的目标方位、纵向速度、类别。对于未关联的序列,将作为新目标利用拓展卡尔曼滤波算法进行跟踪并基于有效生命周期进行目标的管理和输出。本文的主要内容与工作有:(1)基于毫米波雷达的障碍物检测研究。对毫米波雷达的结构和原理进行了介绍;进行了雷达选型和雷达数据解析;提出了一种方法对毫米波雷达产生的数据进行过滤以降低计算量,其中空目标根据距离是否为0过滤;虚假目标通过有效生命周期理论过滤;非威胁目标根据设定的拖拉机作业时安全的横向距离阈值和纵向距离阈值过滤。设计了毫米波雷达数据可视化界面。试验表明,提出的过滤算法可有效滤除82%的无效目标,为后续融合减少了大量不必要的计算。同时,从试验中可以得知毫米波雷达对于障碍物的类型识别能力较差,明确了引入相机进行障碍物识别的必要性。(2)基于相机的障碍物检测研究。首先分别介绍了Faster R-CNN和YOLOv5s深度学习检测算法,并利用两种算法进行检测,根据实际检测结果进行检测算法的选择和改进。针对原始YOLOv5s以GIo U计算损失时存在的问题,提出了一种改进的YOLOv5s检测方法,该种方法采用CIo U进行损失计算并且将初始锚框尺寸替换成基于K-means算法聚类得到的锚框尺寸。利用改进YOLOv5s、原始YOLOv5s、和Faster R-CNN进行农田障碍物检测,比较三者的检测效果。试验表明,改进的YOLOv5s的检测效果较好,单张图片推理时间0.074 s,仅为Faster R-CNN的四分之一,具备了实时性;m AP值为65.12%,仅比Faster R-CNN的m AP值低了1.64%;改进YOLOv5s的m AP值相比于原始YOLOv5s提升了5.80%,检测时间相差不大;对小目标的检测效果提升很多。针对深度学习检测算法在推理阶段遇到模糊图像输入时导致漏检和误检现象,提出了一种基于改进YOLOv5s和SSRN-Deblur Net的两阶段检测方法。试验表明,改进YOLOv5s和SSRN-Deblur Net的两阶段检测方法有效降低了模糊图像输入造成的漏检和误检现象,该方法的m AP值较改进YOLOv5s提升了9.39%,单张图片推理时间增加至0.172 s,满足拖拉机的需求。(3)毫米波雷达与摄像头信息融合策略。进行了毫米波雷达与相机的时空基准对齐。采用了一种像素值拟合评估纵向距离的方法来进行像素坐标系向世界坐标系的转换。采用了一种基于全局最近邻法的数据关联方式,以匹配毫米波雷达与相机观测值。提出了一种加权输出的方式输出融合后的目标序列。利用拓展卡尔曼滤波(EKF)进行目标跟踪以维护有效目标库。(4)毫米波雷达与摄像头信息融合试验。为验证基于多传感器信息融合的农田障碍物检测方法的有效性,在完成硬件和软件的构建后,基于实车进行障碍物检测。试验表明,所提出的方法的可靠性与准确性都比单传感器要高。采用多传感器融合可以正确检测出66.18%的障碍物,高于单个相机的正确检出比例52.47%(相机存在大约10%的误检率)。由于毫米波雷达的使用,漏检率较仅用相机检测的漏检率降低了13.71%。

基于多传感器信息融合的农田障碍物检测研究

这是一篇关于目标检测,多传感器,信息融合,深度学习,去模糊,YOLOv5s的论文, 主要内容为发展无人农机能有效推进农业科技进步,使我国农业不断呈现新的样貌。无人农机能代替农民工作,提升农机作业效率和质量。但农机行进路线上不可避免地存在一些动态和静态障碍物,例如树木、草堆、房屋、电线杆、人、牛、羊和其他行驶的拖拉机等,如果不对这些障碍物进行检测识别,无人农机与障碍物发生碰撞,将造成严重的经济损失乃至人员伤亡。因此,无人农机应具备较强的环境感知能力。本文的目的是构建一种鲁棒的农田障碍物检测方法,能有效改善利用单视觉传感器检测农田障碍物时遇到遮挡问题、未知障碍物、传感器失效时无法检测的情况;并且能提升农机获取到的障碍物信息的精确性和全面性,为后续精准避障奠定基础。因此,本文提出了一种基于多传感器信息融合的农田障碍物检测方法。该方法结合了毫米波雷达在测距测速以及相机在类型识别和横向定位的优势,采用决策级别的融合方式将数据关联成功的毫米波雷达有效目标序列和相机有效目标序列进行加权输出,输出的信息包括更精确的目标方位、纵向速度、类别。对于未关联的序列,将作为新目标利用拓展卡尔曼滤波算法进行跟踪并基于有效生命周期进行目标的管理和输出。本文的主要内容与工作有:(1)基于毫米波雷达的障碍物检测研究。对毫米波雷达的结构和原理进行了介绍;进行了雷达选型和雷达数据解析;提出了一种方法对毫米波雷达产生的数据进行过滤以降低计算量,其中空目标根据距离是否为0过滤;虚假目标通过有效生命周期理论过滤;非威胁目标根据设定的拖拉机作业时安全的横向距离阈值和纵向距离阈值过滤。设计了毫米波雷达数据可视化界面。试验表明,提出的过滤算法可有效滤除82%的无效目标,为后续融合减少了大量不必要的计算。同时,从试验中可以得知毫米波雷达对于障碍物的类型识别能力较差,明确了引入相机进行障碍物识别的必要性。(2)基于相机的障碍物检测研究。首先分别介绍了Faster R-CNN和YOLOv5s深度学习检测算法,并利用两种算法进行检测,根据实际检测结果进行检测算法的选择和改进。针对原始YOLOv5s以GIo U计算损失时存在的问题,提出了一种改进的YOLOv5s检测方法,该种方法采用CIo U进行损失计算并且将初始锚框尺寸替换成基于K-means算法聚类得到的锚框尺寸。利用改进YOLOv5s、原始YOLOv5s、和Faster R-CNN进行农田障碍物检测,比较三者的检测效果。试验表明,改进的YOLOv5s的检测效果较好,单张图片推理时间0.074 s,仅为Faster R-CNN的四分之一,具备了实时性;m AP值为65.12%,仅比Faster R-CNN的m AP值低了1.64%;改进YOLOv5s的m AP值相比于原始YOLOv5s提升了5.80%,检测时间相差不大;对小目标的检测效果提升很多。针对深度学习检测算法在推理阶段遇到模糊图像输入时导致漏检和误检现象,提出了一种基于改进YOLOv5s和SSRN-Deblur Net的两阶段检测方法。试验表明,改进YOLOv5s和SSRN-Deblur Net的两阶段检测方法有效降低了模糊图像输入造成的漏检和误检现象,该方法的m AP值较改进YOLOv5s提升了9.39%,单张图片推理时间增加至0.172 s,满足拖拉机的需求。(3)毫米波雷达与摄像头信息融合策略。进行了毫米波雷达与相机的时空基准对齐。采用了一种像素值拟合评估纵向距离的方法来进行像素坐标系向世界坐标系的转换。采用了一种基于全局最近邻法的数据关联方式,以匹配毫米波雷达与相机观测值。提出了一种加权输出的方式输出融合后的目标序列。利用拓展卡尔曼滤波(EKF)进行目标跟踪以维护有效目标库。(4)毫米波雷达与摄像头信息融合试验。为验证基于多传感器信息融合的农田障碍物检测方法的有效性,在完成硬件和软件的构建后,基于实车进行障碍物检测。试验表明,所提出的方法的可靠性与准确性都比单传感器要高。采用多传感器融合可以正确检测出66.18%的障碍物,高于单个相机的正确检出比例52.47%(相机存在大约10%的误检率)。由于毫米波雷达的使用,漏检率较仅用相机检测的漏检率降低了13.71%。

本文内容包括但不限于文字、数据、图表及超链接等)均来源于该信息及资料的相关主题。发布者:源码货栈 ,原文地址:https://bishedaima.com/lunwen/54545.html

相关推荐

发表回复

登录后才能评论