基于多传感器信息融合的室内巡检机器人系统开发与应用
这是一篇关于多传感器信息融合,巡检机器人,机器人自主充电,视觉误差矫正,路径优化的论文, 主要内容为随着人工智能和深度学习等领域的快速发展,我国的经济发展、人民生活和社会治理形成了以机器人技术为核心的局面。近年来,数据中心数量的不断增加,电力机房成为数据中心能够稳定工作的重要组成部分。但由于室内环境因素、电池过放、电池故障等原因使电力机房的运行受到影响从而引发电气事故,因此对电力机房进行定时巡检是至关重要的。然而,传统的巡检方式存在一系列问题,如工作量大、机房信息更新慢、工作记录纸质化等。随着机器人技术的快速发展,机器人将逐渐取代人力,无人化巡检成为电力系统巡检的发展趋势。本文以电力机房巡检为研究背景,开发与研究室内巡检机器人系统,该系统包含巡检机器人硬件、相关算法和设备监控网站构成,巡检机器人采用基于ROS(Robot Operating System)框架,使用多传感器融合SLAM(Simultaneous Localization and Mapping)算法辅助激光雷达获取丰富的室内环境信息,通过识别Apriltag二维码信息对机器人位姿进行校正,使用改进后的A*(A-Star)算法作为机器人全局路径规划算法完成室内导航,机器人配备充电装置使用红外线实现机器人寻找充电桩并完成自主充电。云端数据平台设备监控网站采用现在流行的Vue和Spring Boot框架搭建,以图表等可视化组件动态的将巡检机器人采集的数据进行分析并实时显示在页面上。机器人硬件部分包含红外热成像、高清摄像头、超声波模块、RGBD相机、充电桩、充电导航模块等,通过多传感器信息融合实现机器人在室内的自主巡检。本文主要研究内容如下:分析研究传统A*算法的弊端,分别通过选择启发式求解方式、优化评价函数,并对A*算法进行动态加权三方面改进传统A*算法,改进后的A*算法得到的导航路径通过贝塞尔曲线对规划路径进行平滑处理。相较于传统的A*算法,改进优化后的A*算法具有计算量小、计算速度快、得到的导航路径更加平滑更加利于机器人运动等优势。提出一种使用识别Apriltag二维码机器人校正位姿的算法,通过识别二维码角度获取机器人相对于充电桩位置的角度信息,并通过机器人尾部超声波模块获取得到机器人与充电桩的距离信息,通过对数据进行处理转换将位姿与距离信息转换为世界地图信息,重新发布机器人位置信息对机器人位姿校正。提出一种多传感信息融合方法,通过融合激光雷达、超声波、深度相机传感器数据信息获取丰富的室内环境信息建立分辨率可靠的栅格地图信息,并通过多传感器检测室内特殊障碍物,有效的规避障碍物防止机器人产生碰撞。
基于多传感器信息融合的自动驾驶障碍物检测方法研究
这是一篇关于多传感器信息融合,障碍物检测,感兴趣区域提取,点云与图像特征,注意力机制的论文, 主要内容为环境感知是自动驾驶中的关键阶段,全面且准确地感知周围环境信息是自动驾驶车辆行车安全的重要保障。对障碍物目标进行检测与识别是感知阶段中的一项基础性关键工作,对于提高自动驾驶汽车环境理解力具有重要意义。单一感知系统检测算法在应对复杂多变与目标密集的道路环境中存在鲁棒性差、感知能力不足的问题,而目前已有的大部分多传感器融合算法难以精确检测行人、骑行人等较小目标物体,为实现精准的障碍物类别检测,本文开展了基于激光雷达和相机多传感器信息融合的自动驾驶障碍物检测方法研究,研究内容如下:(1)标定是多传感器空间同步、协同工作的核心,也是感知算法准确估计障碍物目标位姿的前提,为此开展了多传感器标定方法研究。分析了单目相机中的透视成像原理,在此理论基础上实现了内参标定实验;分析了激光雷达与相机联合标定的平面靶联合标定模型,并设计联合标定实验,借助ROS与MATLAB等软件平台求解出传感器的内外参矩阵,实现了两坐标系间的转换;完成了激光点云与图像数据的空间配准对齐,验证了联合标定结果的有效性。(2)为了弥补单一传感器在感知检测任务中的不足,提高感知系统的检测精度,实现对障碍物目标更加精确的分类,提出了一种基于激光雷达感兴趣区域提取与视觉融合的障碍物检测方案。开展了基于激光雷达的障碍物点云检测研究,主要包括点云滤波处理、基于角度约束的RANSAC地面点云分割、基于KD-Tree空间索引与自适应参数的障碍物点云聚类以及基于图形包络的三维边界框位姿估计;利用两传感器间的投影变换矩阵将获取到的障碍物点云边界框投影到图像平面,获得了其在图像中对应的区域即感兴趣区域(Region of Interest,ROI),并对图像上的ROI区域适当放大,提出了一种基于贪心算法的重叠区域合并策略以得到最终的ROI区域;利用CSPNet与空间金字塔池化层改进原YOLOV3算法完成特征提取并对ROI区域中障碍物进行检测,将所提出的融合检测算法与仅基于视觉的检测进行对比分析,结果表明融合算法在各类别都达到了最优的检测精度,汽车、行人和骑行人的精度分别达到95.98%,82.36%,88.33%。(3)为了在三维空间中实现精准的障碍物检测,提升行人、骑行人等小目标物体的检测精度,提出了一种基于自注意力机制的点云特征提取与图像融合的三维目标检测网络,实现对三维空间中障碍物的精确检测。对Faster-RCNN算法进行改进以形成障碍物目标的2D检测框,利用激光雷达与相机之间的投影变换矩阵对图像中的检测框进行反向投影形成视锥并提取该视锥体内的点云,减小点云的计算规模与空间搜索范围;提出了一种基于自注意力机制的Self-Attention Point Net网络结构,在视锥范围内对原始点云数据进行实例分割;利用边界框回归Point Net网络和轻量级T-Net网络预测了目标点云的3D边界框参数,同时在损失函数中添加正则化项以提高检测精度;在KITTI数据集上进行了验证,结果表明汽车和行人的检测精度与原模型比均有很好的提高,特别是骑行人的检测精度提升明显,在三种难度下分别增加了12.25%,8.08%,7.23%。(4)为了验证本文所提算法在实际场景中的效果,开展了多传感器设备安装与智能车试验平台搭建,并在校园中实时采集数据进行实车试验。针对提出的基于激光雷达感兴趣区域与视觉融合的障碍物检测算法,设计了感兴趣区域提取与视觉融合实验。首先对点云滤波算法、地面分割算法、障碍物点云聚类与三维边界框估计算法进行了验证,结果表明所提算法在校园场景中都有着良好的表现,然后设计了三个试验场景:行人遮挡、车辆遮挡、行人与车辆同时多处遮挡,所提融合算法都可以输出正确的类别信息,所有目标的检测精度可达到93.74%以上。更进一步,进行了基于自注意力机制的点云特征与图像融合实验。首先设计了两个试验场景来检验视锥切割与目标候选区域提取结果的准确性,结果显示算法可以完整准确地实现视锥体的切割,其次验证了3D目标检测的效果,结果表明所提算法对所有目标的检测的准确率超过85%,性能表现良好。
基于多传感器信息融合的自动驾驶障碍物检测方法研究
这是一篇关于多传感器信息融合,障碍物检测,感兴趣区域提取,点云与图像特征,注意力机制的论文, 主要内容为环境感知是自动驾驶中的关键阶段,全面且准确地感知周围环境信息是自动驾驶车辆行车安全的重要保障。对障碍物目标进行检测与识别是感知阶段中的一项基础性关键工作,对于提高自动驾驶汽车环境理解力具有重要意义。单一感知系统检测算法在应对复杂多变与目标密集的道路环境中存在鲁棒性差、感知能力不足的问题,而目前已有的大部分多传感器融合算法难以精确检测行人、骑行人等较小目标物体,为实现精准的障碍物类别检测,本文开展了基于激光雷达和相机多传感器信息融合的自动驾驶障碍物检测方法研究,研究内容如下:(1)标定是多传感器空间同步、协同工作的核心,也是感知算法准确估计障碍物目标位姿的前提,为此开展了多传感器标定方法研究。分析了单目相机中的透视成像原理,在此理论基础上实现了内参标定实验;分析了激光雷达与相机联合标定的平面靶联合标定模型,并设计联合标定实验,借助ROS与MATLAB等软件平台求解出传感器的内外参矩阵,实现了两坐标系间的转换;完成了激光点云与图像数据的空间配准对齐,验证了联合标定结果的有效性。(2)为了弥补单一传感器在感知检测任务中的不足,提高感知系统的检测精度,实现对障碍物目标更加精确的分类,提出了一种基于激光雷达感兴趣区域提取与视觉融合的障碍物检测方案。开展了基于激光雷达的障碍物点云检测研究,主要包括点云滤波处理、基于角度约束的RANSAC地面点云分割、基于KD-Tree空间索引与自适应参数的障碍物点云聚类以及基于图形包络的三维边界框位姿估计;利用两传感器间的投影变换矩阵将获取到的障碍物点云边界框投影到图像平面,获得了其在图像中对应的区域即感兴趣区域(Region of Interest,ROI),并对图像上的ROI区域适当放大,提出了一种基于贪心算法的重叠区域合并策略以得到最终的ROI区域;利用CSPNet与空间金字塔池化层改进原YOLOV3算法完成特征提取并对ROI区域中障碍物进行检测,将所提出的融合检测算法与仅基于视觉的检测进行对比分析,结果表明融合算法在各类别都达到了最优的检测精度,汽车、行人和骑行人的精度分别达到95.98%,82.36%,88.33%。(3)为了在三维空间中实现精准的障碍物检测,提升行人、骑行人等小目标物体的检测精度,提出了一种基于自注意力机制的点云特征提取与图像融合的三维目标检测网络,实现对三维空间中障碍物的精确检测。对Faster-RCNN算法进行改进以形成障碍物目标的2D检测框,利用激光雷达与相机之间的投影变换矩阵对图像中的检测框进行反向投影形成视锥并提取该视锥体内的点云,减小点云的计算规模与空间搜索范围;提出了一种基于自注意力机制的Self-Attention Point Net网络结构,在视锥范围内对原始点云数据进行实例分割;利用边界框回归Point Net网络和轻量级T-Net网络预测了目标点云的3D边界框参数,同时在损失函数中添加正则化项以提高检测精度;在KITTI数据集上进行了验证,结果表明汽车和行人的检测精度与原模型比均有很好的提高,特别是骑行人的检测精度提升明显,在三种难度下分别增加了12.25%,8.08%,7.23%。(4)为了验证本文所提算法在实际场景中的效果,开展了多传感器设备安装与智能车试验平台搭建,并在校园中实时采集数据进行实车试验。针对提出的基于激光雷达感兴趣区域与视觉融合的障碍物检测算法,设计了感兴趣区域提取与视觉融合实验。首先对点云滤波算法、地面分割算法、障碍物点云聚类与三维边界框估计算法进行了验证,结果表明所提算法在校园场景中都有着良好的表现,然后设计了三个试验场景:行人遮挡、车辆遮挡、行人与车辆同时多处遮挡,所提融合算法都可以输出正确的类别信息,所有目标的检测精度可达到93.74%以上。更进一步,进行了基于自注意力机制的点云特征与图像融合实验。首先设计了两个试验场景来检验视锥切割与目标候选区域提取结果的准确性,结果显示算法可以完整准确地实现视锥体的切割,其次验证了3D目标检测的效果,结果表明所提算法对所有目标的检测的准确率超过85%,性能表现良好。
基于多传感器信息融合的自动驾驶障碍物检测方法研究
这是一篇关于多传感器信息融合,障碍物检测,感兴趣区域提取,点云与图像特征,注意力机制的论文, 主要内容为环境感知是自动驾驶中的关键阶段,全面且准确地感知周围环境信息是自动驾驶车辆行车安全的重要保障。对障碍物目标进行检测与识别是感知阶段中的一项基础性关键工作,对于提高自动驾驶汽车环境理解力具有重要意义。单一感知系统检测算法在应对复杂多变与目标密集的道路环境中存在鲁棒性差、感知能力不足的问题,而目前已有的大部分多传感器融合算法难以精确检测行人、骑行人等较小目标物体,为实现精准的障碍物类别检测,本文开展了基于激光雷达和相机多传感器信息融合的自动驾驶障碍物检测方法研究,研究内容如下:(1)标定是多传感器空间同步、协同工作的核心,也是感知算法准确估计障碍物目标位姿的前提,为此开展了多传感器标定方法研究。分析了单目相机中的透视成像原理,在此理论基础上实现了内参标定实验;分析了激光雷达与相机联合标定的平面靶联合标定模型,并设计联合标定实验,借助ROS与MATLAB等软件平台求解出传感器的内外参矩阵,实现了两坐标系间的转换;完成了激光点云与图像数据的空间配准对齐,验证了联合标定结果的有效性。(2)为了弥补单一传感器在感知检测任务中的不足,提高感知系统的检测精度,实现对障碍物目标更加精确的分类,提出了一种基于激光雷达感兴趣区域提取与视觉融合的障碍物检测方案。开展了基于激光雷达的障碍物点云检测研究,主要包括点云滤波处理、基于角度约束的RANSAC地面点云分割、基于KD-Tree空间索引与自适应参数的障碍物点云聚类以及基于图形包络的三维边界框位姿估计;利用两传感器间的投影变换矩阵将获取到的障碍物点云边界框投影到图像平面,获得了其在图像中对应的区域即感兴趣区域(Region of Interest,ROI),并对图像上的ROI区域适当放大,提出了一种基于贪心算法的重叠区域合并策略以得到最终的ROI区域;利用CSPNet与空间金字塔池化层改进原YOLOV3算法完成特征提取并对ROI区域中障碍物进行检测,将所提出的融合检测算法与仅基于视觉的检测进行对比分析,结果表明融合算法在各类别都达到了最优的检测精度,汽车、行人和骑行人的精度分别达到95.98%,82.36%,88.33%。(3)为了在三维空间中实现精准的障碍物检测,提升行人、骑行人等小目标物体的检测精度,提出了一种基于自注意力机制的点云特征提取与图像融合的三维目标检测网络,实现对三维空间中障碍物的精确检测。对Faster-RCNN算法进行改进以形成障碍物目标的2D检测框,利用激光雷达与相机之间的投影变换矩阵对图像中的检测框进行反向投影形成视锥并提取该视锥体内的点云,减小点云的计算规模与空间搜索范围;提出了一种基于自注意力机制的Self-Attention Point Net网络结构,在视锥范围内对原始点云数据进行实例分割;利用边界框回归Point Net网络和轻量级T-Net网络预测了目标点云的3D边界框参数,同时在损失函数中添加正则化项以提高检测精度;在KITTI数据集上进行了验证,结果表明汽车和行人的检测精度与原模型比均有很好的提高,特别是骑行人的检测精度提升明显,在三种难度下分别增加了12.25%,8.08%,7.23%。(4)为了验证本文所提算法在实际场景中的效果,开展了多传感器设备安装与智能车试验平台搭建,并在校园中实时采集数据进行实车试验。针对提出的基于激光雷达感兴趣区域与视觉融合的障碍物检测算法,设计了感兴趣区域提取与视觉融合实验。首先对点云滤波算法、地面分割算法、障碍物点云聚类与三维边界框估计算法进行了验证,结果表明所提算法在校园场景中都有着良好的表现,然后设计了三个试验场景:行人遮挡、车辆遮挡、行人与车辆同时多处遮挡,所提融合算法都可以输出正确的类别信息,所有目标的检测精度可达到93.74%以上。更进一步,进行了基于自注意力机制的点云特征与图像融合实验。首先设计了两个试验场景来检验视锥切割与目标候选区域提取结果的准确性,结果显示算法可以完整准确地实现视锥体的切割,其次验证了3D目标检测的效果,结果表明所提算法对所有目标的检测的准确率超过85%,性能表现良好。
基于多传感器信息融合技术的储能电站火灾预警系统研究
这是一篇关于多传感器信息融合,电池热失控,储能电站火灾预警系统,BP神经网络,模糊控制算法的论文, 主要内容为伴随着我国能源结构改革的不断深化以及对储能产业的发展部署,储能在电力系统中取得规模化应用,储能电站在电力系统中重要性凸显。但是,随着储能装机规模的增加,也带来的安全性问题。近年来的储能电站火灾事故频发,给行业的发展带来了阻力。针对储能电站的安全问题,本论文进行了储能电站火灾预警系统的研究和设计。通过分析储能电站事故原因和火灾发展情况,设计对应于储能电站的火灾预警系统。该系统对储能电站内部环境进行监测,并对电池发生火情识别、判断,实现了储能电池火灾预警。研究内容主要包括:(1)储能电池热失控机理研究和仿真实验。通过分析储能电站发生事故的原理,得出了储能电池主要是因为热失控引发火灾的结论。通过锂电池燃烧实验分析,并运用COMSOL软件对电池热失控仿真,得出火灾发生的特征参量变化情况,由此选择用来系统监控的内部环境变量参数。(2)储能电站火灾预警算法研究。通过运用多传感器信息融合技术,构建火灾探测模型。对传感器信息进行预处理后,基于神经网络和模糊理论的算法对数据进行处理判断,得出预测结果并进行火灾预警。(3)储能电站火灾预警系统设计。完成预警系统的硬件程序设计和软件程序设计,通过选择符合要求的硬件,并完成所需求的软件程序设计。实现系统的数据采集、数据处理、火灾预警等功能。(4)储能电站火灾预警系统实验验证。对设计的预警系统进行系统性实验,验证系统可靠性。
轴承套圈外圆磨削砂轮磨损状态监测系统研究
这是一篇关于轴承套圈,外圆磨削,砂轮磨损状态识别,多传感器信息融合,监测系统的论文, 主要内容为高端轴承是各类高端装备安全、稳定运行的核心基础件,外圆磨削作为轴承套圈的主要加工方式之一,其加工机理复杂,砂轮磨损状态直接关系到磨削工件的质量好坏。在动态磨削加工中,各个影响因素之间相互耦合,关系复杂,难以直接从机理上构建砂轮磨损动态模型。为此,本文从间接监测的角度出发,深入研究砂轮磨损状态的多传感器信息融合的识别技术,研发磨削过程砂轮磨损状态的监测系统,为我国高端轴承实现数字化、网络化、智能化加工提供理论基础和技术支撑。具体研究工作包括以下内容:首先,开展轴承套圈外圆磨削砂轮磨损实验,以恒定磨削参数进行重复实验,直至砂轮严重磨损为止。通过搭建磨削过程多传感器信息采集平台,实时获取声发射、振动以及功率等传感器信息,同时测量被加工工件表面粗糙度和在位检测砂轮表面形貌。将磨削加工过程传感器信息与砂轮检测等结果信息相结合,来全面描述砂轮磨损过程,为后续研究砂轮磨损状态识别等提供切实、可靠的实验数据。接着,根据砂轮磨损实验数据,开展多传感器信号分析与砂轮磨损特征提取等工作。围绕多传感器信息处理流程,信号的预处理去除了外界因素的干扰,使信号能量更加集中;信号的特征提取将复杂的数字信号转换成相对简单的特征值描述;信号的特征优选筛选高相关度特征、特征降维则降低优选特征集的冗余度,从而得到精简的砂轮磨损特征子集,使得构建稳定、可靠的砂轮磨损状态识别模型成为可能。然后,将人工神经网络与统计学理论相结合,构建多传感器信息分级融合的砂轮磨损识别模型,深度挖掘砂轮磨损信息。采用BP神经网路,建立砂轮磨损状态的特征级识别模型,通过模型训练与测试,该模型识别准确率为83.3%,且砂轮磨损识别命题的支持率接近70%。为提高识别准确率与识别精度,采用D-S证据理论,建立砂轮磨损状态的决策级识别模型,该模型识别结果显示,D-S决策模型将各BP子网络模型的不确定成分进行融合,排除了不确定成分对识别结果的影响,提高了识别准确率且对各识别命题的信度支持均超过了93%,具有较高的砂轮磨损状态识别精度。最后,基于理论研究基础,结合Java等高级编程语言,研发砂轮磨损状态监测系统,实现磨削加工过程状态信息获取、加工状态识别、数据管理与服务等功能。通过开展监测系统的相关技术分析、需求分析以及架构设计等工作,采用My SQL、Spring Boot及Layui等框架技术,实现加工数据后端管理与前端页面设计,保证前后端数据的正常交互。该系统不仅实现了磨削加工基础信息查询和物理数据管理,而且能够对砂轮磨损状态信息进行监测,可满足磨削信息的远程服务需求。
养殖场信息采集系统设计与开发
这是一篇关于养殖场,信息采集,ZigBee,多传感器信息融合,Delphi的论文, 主要内容为随着传统养殖业逐步朝向现代化和信息化方向迈进,养殖场信息采集对于提高养殖场自动化水平具有重要意义。但传统养殖场的生产信息仍然较多地依靠人工收集和评估,不仅占用人力资源,还不能及时准确地采集、处理养殖过程中的多种信息,无法为禽畜提供最优的生长环境,也因此制约了养殖场的综合效益提升;同时,全面的信息监测可以有效避免疫情的发生。因此,信息的实时采集与分析就显得至关重要。本文在分析国内外养殖环境监测技术的基础上,针对养殖场信息监测水平落后,信息监测不全面以及舍内不易布线等问题,设计一种养殖场信息采集系统,该系统能够对养殖场禽畜舍温度、湿度、NH3浓度、风速、用水量和用电量进行采集,并通过无线网络将传感器数据传输到监控室内养殖场信息监测子系统进行显示、存储、分析、查询及报警;系统通过多传感器信息融合,对养殖环境进行舒适度评估,为最优生长环境控制提供依据。本文主要工作如下:(1)养殖场信息采集系统方案设计。系统方案包括信息采集与传输子系统方案和信息监测子系统方案两部分。分析养殖场主要信息采集目标,结合使用环境选取传感器;根据养殖场现场通信距离、稳定性、组网方式,设计信息传输方案,传感器数据通过有线方式采集,并通过ZigBee网状组网方式进行传输;根据禽畜舍位置结构,通过CFD软件仿真分析,设计终端节点布置方案;基于数据库开发的信息监测子系统,通过接收ZigBee协调器数据,进行数据分析后,图形用户界面对采集、处理后的数据进行显示。(2)信息采集与传输子系统设计。ZigBee核心使用CC2530芯片,在此基础上设计了环境采集节点、用水量采集节点、用电量采集节点、用料量采集节点、路由器与协调器节点,实现传感器数据采集与传输;结合Z-Stack任务处理机制,通过定时触发传感器数据采集事件,周期性采集传感器数据,并通过结构化传感器数据帧发送给协调器。(3)养殖场信息处理。使用多个红外测距传感器,结合料罐实际的几何尺寸,通过体积计算获得用料量体积,并通过三维拟合方式,计算用料量密度,进而获得用料量质量;针对采集到禽畜舍温度、湿度、风速和NH3浓度,通过使用BP神经网络进行多传感器信息融合,对环境舒适度进行评判,通过样本仿真和泛化验证,该模型能够较准确地评估禽畜舍环境舒适度。(4)信息监测子系统设计。基于Delphi和SQL Server 2005进行软件开发,对传感器数据显示、报警、历史查询、数据分析和数据存储功能进行设计,通过图形用户界面显示为工作人员提供监测数据。(5)系统功能测试与联调。在养殖场实际环境下,进行了传感器数据采集测试,无线网络传输功能测试,红外传感器测量用料量和养殖环境舒适度评估测试。实际应用结果表明:该系统能够实时、准确地监测养殖场禽畜舍温度、湿度、风速、NH3浓度、用水量、用电量和用料量信息,有效提高了工作人员对养殖场的监测和管理效率;较灵活的养殖场信息传输协议设计和ZigBee自组网特性,使得本系统可扩展性强;养殖环境的舒适度评估,为最优生长环境控制提供依据,有助提高养殖自动化水平。本系统现场运行稳定,具有一定的推广应用价值。
本文内容包括但不限于文字、数据、图表及超链接等)均来源于该信息及资料的相关主题。发布者:毕设港湾 ,原文地址:https://bishedaima.com/lunwen/52304.html