复杂场景下的车辆及行人视觉目标检测方法研究
这是一篇关于人工智能,复杂场景,无人驾驶,图像去噪,目标检测的论文, 主要内容为近些年人工智能技术发展迅猛,目前已经被广泛使用在各行各业之中,交通运输行业作为我国重要行业领域,人工智能技术在其行业内的重要应用即为自动驾驶。其中自动驾驶汽车通过摄像头采集道路信息,并通过目标检测算法识别障碍物,例如车辆和行人,最后根据障碍物信息进行后续的运动决策。但是实际道路状况具有一定的复杂性,影响算法对车辆和行人等目标的识别效率。故针对复杂场景下的车辆行人目标检测精度较低的问题,本文提出了CSP U-Net图像去噪算法以及SGW-YOLO视觉目标检测算法,具体的工作如下:(1)针对复杂场景下的恶劣天气会使摄像机拍摄的视频图像质量降低,造成视频中的目标模糊,影响目标检测算法效率的问题,本文提出了一种集成了通道融合模块与通道注意力机制的CSP U-Net图像去噪算法,并引入了MS-SSIM损失函数,可在显著幅提升网络的去噪性能的同时,更好地应对去噪之后出现的色彩失真的问题。最后在多个数据集上对算法的性能进行验证,证明本文图像去噪算法的优越性。(2)针对目标之间遮挡较多、远距离小目标难识别等问题,提出了一种融合Transformer的多尺度实时目标检测算法SGW-YOLO。首先提出一种SGWin Transformer V2主干网络替换YOLOv5s的原始主干网络;其次引入CBAM模块,使模型可以更关注小目标所在的区域;然后在损失函数部分针对小目标的定位利用SIo U进行优化损失函数,并在每个CSP模块前添加了上下文信息提取模块,增加了模型的上下文信息提取能力。通过消融实验数据指标对比可知所提出的算法整体性能优于其他同类别目标检测算法。(3)结合改进的图像去噪算法以及目标检测算法在真实的复杂场景中进行实验,对比只使用目标检测算法和同时使用去噪和检测两种算法的车辆行人检测效果,验证了图像去噪算法和目标检测算法结合的优势性。综上所述,本文对复杂场景下的车辆行人视觉目标检测中存在的问题进行研究和分析,对遮挡、密集、复杂气候因素给无人驾驶智能检测系统带来的阻碍提出合理的解决方案,对未来的无人驾驶需求具有一定的参考价值。
复杂场景下裂缝检测方法研究
这是一篇关于复杂场景,裂缝检测,改进U-net网络,Yolox的论文, 主要内容为桥梁、路面或者隧道,由于长期受到自然条件的侵蚀或遭到人为破坏,经常出现表面或深层次的裂缝,影响安全使用。裂缝作为最常见的病害和最直接有效的评价指标,常常被用来评估各类桥梁服役期、路面状况或墙体损毁情况。由此可见针对裂缝的检测对安全保障和指导后续养护工作提供了强大的信息支撑。基于图像处理技术的裂缝检测方法已有相当深入的研究,但是现有的研究成果多聚焦于单一场景下的裂缝检测。实际生活中场景复杂多变、裂缝的种类多种多样,已有的裂缝检测模型已经无法满足在复杂场景下进行裂缝检测的需要。所以本文提出了一种复杂场景下的裂缝检测算法,工作内容如下:复杂场景裂缝图像数据集存在数量不足的问题,使用图像采集设备采集复杂场景下的裂缝图像,并对采集到的图像进行数据增强,形成复杂场景下的裂缝数据集,对裂缝检测的网络训练提供数据支撑。已有的网络模型无法在复杂场景中分割裂缝图像,本文提出基于改进的Unet网络模型作为图像分割算法,准确捕获图像的上下文信息分割裂缝图像。改进后的U-net网络,裂缝分割准确率达到95.73%,符合工程要求。将改进后的Yolox模型与改进后的U-net网络结合,实现裂缝的自动识别,提升模型整体的识别效果和准确率。实验结果表明改进后Yolox模型检测裂缝图像准确率为98%,有效提升了复杂场景下裂缝检测的效率和准确率。
复杂场景中的草莓图像修复与目标检测方法研究
这是一篇关于生成式对抗网络,遮挡修复,复杂场景,目标检测,Cascade R-CNN的论文, 主要内容为作为世界上最大的草莓生产国,中国草莓产业现状表现为总体产量高但单位产出效益低,一个重要的原因是草莓生产管理与采摘依然是依靠人工,生产模式粗放,且近年来劳动力成本日趋高昂,随着时间的推移,这一短板逐渐凸显。草莓采摘周期短、强度大,实现草莓采摘的机械化、智能化,进而降低劳动力成本增加产出效益已成必然趋势,其中基于机器视觉的草莓检测与识别是草莓生产精准管理与智能化采摘的前提与关键技术。基于传统图像分割方法实现作物识别、产量预测是近年来的研究热点,其中针对识别目标的形状、颜色或者纹理等特征进行有效提取是图像分割的前提。草莓检测场景通常是复杂图像场景,有两类因素直接导致了草莓语义特征的缺失进而大幅降低传统图像分割与检测精度。一是复杂田间栽培环境中,存在部分尺寸较小的目标隐藏在背景相似的环境中;二是存在大量遮挡现象,主要包括草莓叶片、茎秆、杂草等与草莓果实之间存在的类间遮挡、草莓互相之间存在的类内遮挡以及由于光照因素导致的阴影遮挡。为解决上述问题,本文提出两种解决方案:一种是基于Cascade R-CNN的级联网络,实现复杂场景中草莓的高精度检测;另一种是基于生成式对抗网络(Generative Adversarial Network,GAN)的草莓遮挡修复方法,采用双阶段的级联网络实现草莓图像的精准细节修复。主要研究内容如下:(1)提出一种基于深度卷积神经网络的高效草莓检测方法FCS R-CNN。以Cascade R-CNN为基本检测模型,加入特征金字塔网络(Feature pyramid network,FPN),通过IOU阈值级联的方式进行阶段融合,并在训练过程中对困难样本进行重学习。最后利用改进型的SVM分类器,对所有检出框进行二分类。最终在242幅草莓图像组成的测试集中,本文方法的平均准确率AP值达到84.69%,AP值相对于原始Cascade R-CNN提高了 20.87%,结果表明,FCS R-CNN能够显著提高复杂场景中的草莓检测准确率,为草莓产量预估提供了新的思路。(2)提出一种包含双阶段GAN的级联网络模型LT-GAN(Line and Texture Mapping Generative Adversarial Network),对遮挡区域进行修复以进一步解决草莓图像中的遮挡问题。首先使用线条网络(Line Network,L-Net)重构草莓被遮挡区域的低频语义结构,然后使用纹理映射网络(Texture mapping Network,T-Net)对抗性的挖掘草莓图像中的高频纹理信息。在包含不同遮挡种类与范围下的草莓测试集中,LT-GAN能够生成与缺失区域周围像素具有一致性且视觉效果逼真的草莓图像,且该方法的平均峰值信噪比(Peak Signal to Noise Ratio,PSNR)为21.28,平均结构相似性度(Structural SIMilarity,SSIM)为0.802,图像修复效果良好。(3)设计了 一种可以进行人机交互的快速草莓遮挡修复与检测系统。系统基于PyQt技术,以修复网络LT-GAN与检测网络FCS R-CNN为基本算法模型,根据用户需求,在可视化界面实时反馈模型输出结果。
复杂场景下奶牛个体身份识别方法研究
这是一篇关于复杂场景,颈环ID标牌,ID标牌识别,级联式检测,体斑特征的论文, 主要内容为获取的动物个体信息需要与个体身份相对应,才能实现奶牛个体情况的实时监测,从而提高奶牛个体的健康和福利水平。针对养殖场景下奶牛个体身份识别存在的光照复杂、形变复杂、尺度复杂和环境复杂等问题,本文基于深度学习和图像处理技术,开展了奶牛颈环ID标牌自动定位和识别方法研究以及奶牛躯干定位和体斑分类方法研究,为规模化牧场的动物非接触识别提供参考。主要研究内容如下。(1)针对复杂养殖环境下奶牛颈环ID标牌定位存在的目标变形、光照不均匀、目标尺度小和污渍遮挡等问题,测试现有的不同标牌定位方法,包括基于颜色和轮廓的传统定位方法、级联检测器方法、实例分割方法,并提出了一种基于深度学习的级联式标牌定位和分割方法:首先采用Efficient Det-d4模型定位包围ID标牌的矩形框,然后利用YOLACT++模型将矩形框内的ID标牌按照其轮廓精准分割出来。对比和分析了不同标牌定位方法的性能,结果表明所提出的级联式标牌定位和分割方法相较于现有的定位方法识别精度有很大的提升,实现了96.5%的分割精度,对标牌的面积、标牌的变形、光照以及变化的背景均具有良好的鲁棒性。(2)提出了基于图像处理的字符分割方法,主要包括灰度化、灰度变换、二值化、形态学处理、水平投影分割和尺寸归一化几个步骤。并根据ID标牌图像的特征确定了不同步骤的处理方法和参数。试验结果表明该方法能够达到97.5%的字符检出率。(3)分析了常用的字符识别方法,参考手写数字识别网络Le Net-5构建了字符识别模型。采用随机旋转和平移增强图像数据,解决数据不平衡问题。根据多次训练结果确定训练参数,并采用十折交叉验证法训练字符识别模型。试验结果显示,字符识别准确率为95.4%,对字符图像的旋转、平移、遮挡和缺失等复杂情况均具有较强的鲁棒性。(4)研究了基于体斑特征的奶牛个体识别方法。利用背景减去法、计算图像密度等设计了一种奶牛目标定位和体斑图像提取方法,并分别研究了特征点检测和匹配法、深度学习法对体斑特征的分类性能。试验结果显示,基于Efficient NetB0的体斑分类模型实现了96.88%的准确率。对于采用颈环ID标牌识别法不能被识别的奶牛图像,可以采用基于体斑特征的奶牛个体识别方法识别图像中的奶牛个体身份,从而提高不同场景下的奶牛个体身份识别精度。
复杂场景下奶牛个体身份识别方法研究
这是一篇关于复杂场景,颈环ID标牌,ID标牌识别,级联式检测,体斑特征的论文, 主要内容为获取的动物个体信息需要与个体身份相对应,才能实现奶牛个体情况的实时监测,从而提高奶牛个体的健康和福利水平。针对养殖场景下奶牛个体身份识别存在的光照复杂、形变复杂、尺度复杂和环境复杂等问题,本文基于深度学习和图像处理技术,开展了奶牛颈环ID标牌自动定位和识别方法研究以及奶牛躯干定位和体斑分类方法研究,为规模化牧场的动物非接触识别提供参考。主要研究内容如下。(1)针对复杂养殖环境下奶牛颈环ID标牌定位存在的目标变形、光照不均匀、目标尺度小和污渍遮挡等问题,测试现有的不同标牌定位方法,包括基于颜色和轮廓的传统定位方法、级联检测器方法、实例分割方法,并提出了一种基于深度学习的级联式标牌定位和分割方法:首先采用Efficient Det-d4模型定位包围ID标牌的矩形框,然后利用YOLACT++模型将矩形框内的ID标牌按照其轮廓精准分割出来。对比和分析了不同标牌定位方法的性能,结果表明所提出的级联式标牌定位和分割方法相较于现有的定位方法识别精度有很大的提升,实现了96.5%的分割精度,对标牌的面积、标牌的变形、光照以及变化的背景均具有良好的鲁棒性。(2)提出了基于图像处理的字符分割方法,主要包括灰度化、灰度变换、二值化、形态学处理、水平投影分割和尺寸归一化几个步骤。并根据ID标牌图像的特征确定了不同步骤的处理方法和参数。试验结果表明该方法能够达到97.5%的字符检出率。(3)分析了常用的字符识别方法,参考手写数字识别网络Le Net-5构建了字符识别模型。采用随机旋转和平移增强图像数据,解决数据不平衡问题。根据多次训练结果确定训练参数,并采用十折交叉验证法训练字符识别模型。试验结果显示,字符识别准确率为95.4%,对字符图像的旋转、平移、遮挡和缺失等复杂情况均具有较强的鲁棒性。(4)研究了基于体斑特征的奶牛个体识别方法。利用背景减去法、计算图像密度等设计了一种奶牛目标定位和体斑图像提取方法,并分别研究了特征点检测和匹配法、深度学习法对体斑特征的分类性能。试验结果显示,基于Efficient NetB0的体斑分类模型实现了96.88%的准确率。对于采用颈环ID标牌识别法不能被识别的奶牛图像,可以采用基于体斑特征的奶牛个体识别方法识别图像中的奶牛个体身份,从而提高不同场景下的奶牛个体身份识别精度。
本文内容包括但不限于文字、数据、图表及超链接等)均来源于该信息及资料的相关主题。发布者:代码驿站 ,原文地址:https://bishedaima.com/lunwen/52318.html