基于ZYNQ的软体救援机器人人脸检测定位系统研究
这是一篇关于软硬件协同设计,软体救援机器人,ZYNQ,人脸检测,双目测距的论文, 主要内容为地震等自然灾害的频发对人类的生命安全构成严重威胁,在易坍塌、结构不稳定的灾后废墟环境,传统的救援设备通常因体积大、检测时间长,无法及时救援被困人员。体积小、实时性强的检测定位救援设备在易坍塌废墟救援过程中起到至关重要的作用。FPGA(Field Programmable Gate Array,现场可编程逻辑门阵列)因其流水线的工作模式、并行运算的处理方式,可以极大程度加速系统处理过程,减小系统处理时间,具有极高的研究价值。随着嵌入式芯片的不断发展,本文采用一颗FPGA+ARM(Advanced RISC Machines,ARM处理器)架构的嵌入式芯片,研究与设计实现一套软体救援机器人人脸检测定位系统,实现实时检测脆弱易塌陷的废墟环境中的人脸信息,测量人脸位置的空间距离。本文结合实际应用环境设计要求,设计整体人脸检测测距系统总体方案。选取Xilinx公司Zynq7000系列芯片作为开发平台,采用软硬件协同设计方法,利用Verilog HDL硬件描述语言编写系统硬件部分的主要功能模块。使用C开发语言编写系统软件部分实现双目摄像头采集通道、图像处理通道与图像显示通道的控制。在PL(Programmable Logic,FPGA可编程逻辑)端设计并实现人脸检测系统。采用提取肤色特征的人脸检测算法,选取双目OV5640摄像头实时采集图像,建立肤色模型,对采集的图像数据进行肤色分割,完成基于肤色特征的人脸信息提取。使用形态学滤波算法,运用先腐蚀再膨胀的开运算去除图像中的孤立噪点。筛选人脸范围,框选确定的人脸区域,实现整体基于肤色的人脸检测系统。应用以IP为核心的设计理念,将编写的各模块封装为相应的IP,并对各功能模块完成仿真验证。使用验证通过的IP搭建人脸检测系统硬件工程。在PS(Processing System,ARM双核处理器)端设计并实现双目测距系统。提取人脸区域中心点坐标,通过双目三角测距公式测量实际物体与摄像头之间的深度距离。分析测量结果,实验表明系统在目标距离较近时,测量精度较高,1m距离内测量相对误差在5%以内。本文最后模拟救援实验,验证人脸检测定位系统的可行性。引用一款软体救援机器人并制造实验样机,采用气压驱动方式,通过控制气腔内气体含量实现软体救援机器人的软体导向结构的弯曲。人脸检测定位系统在搭建的模拟废墟环境中实时地发现人脸信息。同时,实验表明在遮挡人眼等面部器官时,检测效果并未产生较大影响,证明本文所设计的基于FPGA的人脸检测定位系统的实时性与可行性。
双目图像拼接及测距技术研究
这是一篇关于双目测距,单目测距,图像拼接,自适应图像裁切的论文, 主要内容为双目测距是计算机视觉领域中的研究热点内容之一,其在辅助驾驶和无人机避障等场景下均有较为广泛的应用。随着该技术在实际应用方面的不断发展,人们希望双目测距的感知范围变得更大,使辅助驾驶系统更早发现行人和车辆,机器人感知到更大范围内的障碍物。传统双目测距技术只能对双目图像部分内容求取距离信息,使测距视野小于采集图像视野范围。对此本文在双目测距技术中融入单目测距与图像拼接算法,最终实现双目图像全景测距。全景测距试验平均相对误差率为3.05%,在保证精度的前提下扩展了双目测距的横向视野范围。本文主要研究内容如下:(1)基于改进PSM-Net的双目测距双目测距主要分为相机标定、图像校正、立体匹配和深度计算四个部分。本文利用张正友标定算法获取相机参数,通过Bouguet算法对图像进行校正。在立体匹配部分,针对深度学习立体匹配网络PSM-Net收敛速度慢的问题,对其损失函数部分加入交叉熵损失函数,使模型收敛速度得到提升。最后利用模型得到视差图进行双目测距试验,并对试验误差进行理论分析。(2)基于YOLOv5的单目测距双目测距部分只能对左视图内信息进行测距,对于未能利用到的右视图部分本文通过单目测距得到其距离信息。利用COCO数据集对YOLOv5网络进行训练,通过KITTI-Object数据集对其进行测试,将目标检测框下边沿位置作为物体接地线位置,实现几何关系法单目测距,通过真实场景测试验证单目测距的准确性。(3)基于AANAP的图像拼接算法为了使测距结果有更好的展示效果,本文将双目图像利用AANAP算法生成全景图像。针对图像拼接算法在大视差区域容易产生伪影的问题,本文结合图像重叠区域识别算法和图像景深估算,通过试验提出了自适应裁切算法。通过本算法预处理后,图像拼接质量有较大提升。
基于人工智能的车联网中目标检测与测距算法研究
这是一篇关于人工智能,目标检测,双目立体视觉,曲面约束-值域扫描算法,双目测距的论文, 主要内容为在车联网环境中,基于人工智能的识别与测距技术已成为解决目前现有交通问题的重要技术手段,利用目标检测与双目立体视觉此类人工智能技术精确的判断事物类别与位置对智慧交通的统筹建设提供了基础理论支撑。Mask RCNN算法在车联网中虽检测识别精度较高,但其实时性不足检测耗时严重;双目立体视觉技术凭着系统简单与精度适宜的优点满足车联网中的测距需求。本文基于人工智能技术,对Mask R-CNN算法和双目立体视觉测距算法在车联网环境下展开研究,包括以下两个方面:为提高车联网中的目标识别效率,引入Mask R-CNN算法并针对其特征提取网络参数量与计算量巨大导致算法实时性较差、耗时严重等问题进行优化。本文首先在轻量级算法Mobile Net V3_Large的基础上创新优化提出Mobile Net V3_MS,利用Mish激活函数替换Mobile Net V3_Large中Layer1至Layer6中的Re LU激活函数以提高网络泛化能力的同时改善网络的性能表现;在Layer7至Layer10使用注意力机制SE模块以增强相应层对重要特征的敏感性,其次使用Mobile Net V3_MS与FPN构造特征提取网络,最后替换Mask R-CNN中的相应结构使得特征提取网络轻量化从而减少算法的检测分割耗时。实验结果表明,本文模型能在复杂场景中对目标信息进行有效提取,且其训练时间与预测时间相比于Mask R-CNN分别减少了14.5%和85.9%,有效平衡算法整体的精确度与实时性。在车联网的测距应用方面,对潜在的双目相机测距范围做出定义,提出曲面约束-值域扫描算法对测距范围做出预测同时利用基于Mobile Net V3_MS的Mask R-CNN算法结合SGBM双目立体匹配方法来进行目标测距。曲面约束-值域扫描算法是针对平面-空间算法在限定曲面上计算值域的方法,可使用平面-空间算法的相关参数与光学成像原理推导而出。仿真结果表明,曲面约束-值域扫描算法的有效率最高可达99.1%。基于Mobile Net V3_MS的Mask R-CNN双目立体视觉测距算法以左图像为参考基准,使用检测后的左图像与右图像进行立体匹配并将匹配后的视差信息重映射到左图像上,然后利用加权最小二乘滤波器对视差图保边优化得到最终视差图,通过视差信息计算目标区域内随机点的距离并取其平均值作为最终的测距值,最后输出深度图。实验结果表明,距离在6.44米内测距算法相对误差不超过1%,以此反向证明了曲面约束-值域扫描算法的合理性,距离在10米以内测距算法相对误差不足5%。
基于目标检测的交通标志识别系统的研究与实现
这是一篇关于交通标志识别,双目测距,辅助驾驶,目标检测算法的论文, 主要内容为当前社会交通安全问题日益突出,成为目前急需解决的问题,其中基于计算机视觉的辅助驾驶系统是解决交通安全问题的重要研究方向。基于此,本文设计了基于目标检测的交通标志识别系统,对行车过程中的交通标志信息及距离信息进行识别并作出提醒,提高行车安全系数。论文针对目标检测算法展开研究,结合工程应用技术,设计并实现了交通标志识别系统。主要贡献包括:1)提出了添加CBAM注意力机制及CA注意力机制的YOLOv5算法改进方法,使其网络模型更加关注重点内容,模型的m AP@0.5值提升了0.6%。提出了添加小目标检测层的YOLOv5目标检测算法改进方法,解决目标检测算法无法很好检测小目标交通标志的问题,模型训练效果的m AP@0.5值提升了5.3%。2)提出了基于切片推理的YOLOv5目标检测算法改进方法,对数据集进行2*2切片,并对标注文件重新计算和模型训练,解决了输入图像尺寸较大无法有效检测到交通标志的问题。检测模型对输入的图像进行2*2图像切片并把检测出来的结果进行融合和NMS抑制,模型训练效果的m AP@0.5值提升了8.6%。3)结合工程思维,对目标检测算法进行应用,设计并实现交通标志识别系统,并通过双目摄像头、双目测距算法解决了检测算法无法对检测目标测距的问题。通过需求分析、系统设计等过程,并结合Vue.js、Rabbit MQ、Fast API等工程技术实现交通标志识别系统。通过以上各点研究,最终实现交通标志识别系统,在规范用户驾驶行为,保障交通安全等方面起到重要作用,具有一定的社会价值和意义。
基于人工智能的车联网中目标检测与测距算法研究
这是一篇关于人工智能,目标检测,双目立体视觉,曲面约束-值域扫描算法,双目测距的论文, 主要内容为在车联网环境中,基于人工智能的识别与测距技术已成为解决目前现有交通问题的重要技术手段,利用目标检测与双目立体视觉此类人工智能技术精确的判断事物类别与位置对智慧交通的统筹建设提供了基础理论支撑。Mask RCNN算法在车联网中虽检测识别精度较高,但其实时性不足检测耗时严重;双目立体视觉技术凭着系统简单与精度适宜的优点满足车联网中的测距需求。本文基于人工智能技术,对Mask R-CNN算法和双目立体视觉测距算法在车联网环境下展开研究,包括以下两个方面:为提高车联网中的目标识别效率,引入Mask R-CNN算法并针对其特征提取网络参数量与计算量巨大导致算法实时性较差、耗时严重等问题进行优化。本文首先在轻量级算法Mobile Net V3_Large的基础上创新优化提出Mobile Net V3_MS,利用Mish激活函数替换Mobile Net V3_Large中Layer1至Layer6中的Re LU激活函数以提高网络泛化能力的同时改善网络的性能表现;在Layer7至Layer10使用注意力机制SE模块以增强相应层对重要特征的敏感性,其次使用Mobile Net V3_MS与FPN构造特征提取网络,最后替换Mask R-CNN中的相应结构使得特征提取网络轻量化从而减少算法的检测分割耗时。实验结果表明,本文模型能在复杂场景中对目标信息进行有效提取,且其训练时间与预测时间相比于Mask R-CNN分别减少了14.5%和85.9%,有效平衡算法整体的精确度与实时性。在车联网的测距应用方面,对潜在的双目相机测距范围做出定义,提出曲面约束-值域扫描算法对测距范围做出预测同时利用基于Mobile Net V3_MS的Mask R-CNN算法结合SGBM双目立体匹配方法来进行目标测距。曲面约束-值域扫描算法是针对平面-空间算法在限定曲面上计算值域的方法,可使用平面-空间算法的相关参数与光学成像原理推导而出。仿真结果表明,曲面约束-值域扫描算法的有效率最高可达99.1%。基于Mobile Net V3_MS的Mask R-CNN双目立体视觉测距算法以左图像为参考基准,使用检测后的左图像与右图像进行立体匹配并将匹配后的视差信息重映射到左图像上,然后利用加权最小二乘滤波器对视差图保边优化得到最终视差图,通过视差信息计算目标区域内随机点的距离并取其平均值作为最终的测距值,最后输出深度图。实验结果表明,距离在6.44米内测距算法相对误差不超过1%,以此反向证明了曲面约束-值域扫描算法的合理性,距离在10米以内测距算法相对误差不足5%。
本文内容包括但不限于文字、数据、图表及超链接等)均来源于该信息及资料的相关主题。发布者:代码向导 ,原文地址:https://bishedaima.com/lunwen/52480.html