基于Waterbomb折纸机构的刚柔耦合气动机械手的设计与控制
这是一篇关于刚柔耦合机械手,形状适应性,抓力控制,负载能力,物体识别的论文, 主要内容为机械手的应用场景日益复杂化和抓取目标的日趋多样化,对机械手的形状适应性和负载能力提出了更高的要求,纯柔性或者刚性机械手往往难以满足使用要求,因此刚柔耦合机械手被设计出来。本文提出了一种基于waterbomb折纸机构的刚柔耦合气动机械手,利用传感器和气动控制系统实现抓取、识别物体的功能。得益于一定的柔性和waterbomb的多自由度特点,机械手具有很强的形状适应性,而刚柔耦合的设计提高了机械手的负载能力,柔性压力传感器使得机械手具有物体识别功能。针对刚柔耦合机械手的功能需要进行机械手的构型设计与建模。分析waterbomb折纸机构的特点,确定了waterbomb折纸机构的设计参数。基于DH参数法和对称折叠假设,推导waterbomb的运动学模型,利用Rhinoceros软件建模并测得机械手的工作空间,并基于建模结果设计刚柔耦合机械手。根据设计结果,对机械手进行自由度分析和力学特性分析。将waterbomb折纸机构等效为闭环机构来分析其驱动位置,得到驱动布置规律,并通过Adams仿真验证。基于螺旋理论推导一个waterbomb单元折叠时的反作用力,利用Abaqus仿真应力情况,并将其应用于刚柔耦合机构的设计。设计了适用于该机械手的柔性传感器与气动控制系统。压力传感器用于测量抓取力和机械手的变形情况,模糊自适应PI控制系统用于控制机械手的内部气压和抓取力。基于传感器和控制系统,设计了多个传感器的布置方式和物体识别系统,从而使机械手具有物体识别能力。进行了机械手的形状适应性实验、负载能力实验和物体识别实验,对传感器、控制系统和机械手的性能进行了验证。实验结果表明,刚柔耦合机械手能够抓取不同形状的物品,同时负载能力比柔性机械手更强,并能利用抓取不同物体时传感器的响应数据实现物体识别。因此,传感器与控制系统的效果良好,机械手形状适应性较强、力感知精度较高,同时具有较强的负载能力和一定的物体识别能力。
基于多模态特征融合的物体识别和6D位姿估计
这是一篇关于物体识别,位姿估计,多模态特征融合,CenterNet,G2L-Net,FPGM剪枝的论文, 主要内容为物体识别和位姿估计是计算机视觉领域比较重要的任务,对自动驾驶、智慧医疗等应用场景有着特殊意义。当前物体识别算法大多数基于颜色图像RGB,在车道线检测等场景有较好的表现。但在弱纹理、低光照条件下,算法性能有较大下降。此外,为追求高准确率,现阶段的物体识别和位姿估计算法变得复杂。其参数量和计算量随着性能的提升成倍增加,算法效率偏低。为解决上述问题,本文从提高算法性能和效率、降低模型复杂度出发,基于多模态特征的融合对物体识别和6D位姿估计展开研究。主要工作如下:(1)深度图是与RGB图像不同的具有独特含义的数据结构。深度图能反映当前物体可见表面的形状,且不易受光照条件影响。为有效应对弱纹理、低光照情况,深度信息可用于增强模型的特征描述能力,进而提升物体识别算法性能。针对多模态特征的融合问题,本文设计了处理深度图的Dep Conv网络,并确立了“分治”策略。首先利用不同的网络分别对RGB图像和深度图进行处理,将获取的特征图合并通道数,再通过金字塔池化模块提取全局特征,并与之前的特征融合,传入后续预测网络。最后,从目标检测和语义分割两方面,通过数据集YCB和Line Mod上的实验,验证了“分治”策略对物体识别算法的提升作用。(2)为满足工业应用轻量化和实时性的需求,本文提出了一种基于G2LNet+Center Net算法的实时位姿估计网络。为提高位姿估计结果的准确性,采用Center Net关键点检测算法代替YOLO v3,借助Center Net高分辨率的热力图和中心点偏差,能更灵活准确地提取物体的中心点信息;针对使用二维边框约束深度信息范围会破坏原有数据结构的问题,基于Center Net网络预测的中心点信息和目标半径,对整张深度图转换出的点云进行三维约束,保留了点云原有的空间结构;位姿估计网络中多次出现特征复用,有些卷积层的通道数达到了2240、2256。为降低模型复杂度和计算量,使用中位数剪枝算法FPGM对位姿估计网络进行裁剪。在保证原有性能不下降或略有下降的前提下,实现了模型的精简化和轻量化。(3)为验证基于G2L-Net+Center Net算法的位姿估计网络性能,借助已有的深度相机进行360°环绕式实时位姿估计实验,验证了位姿估计算法的应用可行性和可靠性。
基于Waterbomb折纸机构的刚柔耦合气动机械手的设计与控制
这是一篇关于刚柔耦合机械手,形状适应性,抓力控制,负载能力,物体识别的论文, 主要内容为机械手的应用场景日益复杂化和抓取目标的日趋多样化,对机械手的形状适应性和负载能力提出了更高的要求,纯柔性或者刚性机械手往往难以满足使用要求,因此刚柔耦合机械手被设计出来。本文提出了一种基于waterbomb折纸机构的刚柔耦合气动机械手,利用传感器和气动控制系统实现抓取、识别物体的功能。得益于一定的柔性和waterbomb的多自由度特点,机械手具有很强的形状适应性,而刚柔耦合的设计提高了机械手的负载能力,柔性压力传感器使得机械手具有物体识别功能。针对刚柔耦合机械手的功能需要进行机械手的构型设计与建模。分析waterbomb折纸机构的特点,确定了waterbomb折纸机构的设计参数。基于DH参数法和对称折叠假设,推导waterbomb的运动学模型,利用Rhinoceros软件建模并测得机械手的工作空间,并基于建模结果设计刚柔耦合机械手。根据设计结果,对机械手进行自由度分析和力学特性分析。将waterbomb折纸机构等效为闭环机构来分析其驱动位置,得到驱动布置规律,并通过Adams仿真验证。基于螺旋理论推导一个waterbomb单元折叠时的反作用力,利用Abaqus仿真应力情况,并将其应用于刚柔耦合机构的设计。设计了适用于该机械手的柔性传感器与气动控制系统。压力传感器用于测量抓取力和机械手的变形情况,模糊自适应PI控制系统用于控制机械手的内部气压和抓取力。基于传感器和控制系统,设计了多个传感器的布置方式和物体识别系统,从而使机械手具有物体识别能力。进行了机械手的形状适应性实验、负载能力实验和物体识别实验,对传感器、控制系统和机械手的性能进行了验证。实验结果表明,刚柔耦合机械手能够抓取不同形状的物品,同时负载能力比柔性机械手更强,并能利用抓取不同物体时传感器的响应数据实现物体识别。因此,传感器与控制系统的效果良好,机械手形状适应性较强、力感知精度较高,同时具有较强的负载能力和一定的物体识别能力。
云计算支持的机器人场景理解技术的研究与实现
这是一篇关于云机器人,机器人场景理解,语义地图,混合云架构,云计算,物体识别的论文, 主要内容为云机器人利用云计算和大数据等后台基础设施,可以提升机器人在复杂环境下遂行任务的能力,被认为是“开启下一代机器人的钥匙”。然而,云在极大扩增机器人能力的同时,也在服务质量方面带来了许多不确定性,如网络传输延迟和云端资源不可控等。这对于许多机器人应用是不可接受的,尤其是当它们与物理世界直接交互时。如何在能力扩增和服务质量保证之间得到一个恰当的平衡,是云机器人领域需要应对的挑战。本文以机器人场景理解为研究对象,针对上述挑战展开研究。场景理解是指机器人基于感知数据认知所处环境的过程。它不仅获取场景几何信息,还需要获取场景内物体语义信息(如标签和所处位置等)。互联网上已存在的物体识别等云服务可以为后者提供支持,但如前文所述,由于其服务质量难以得到保证,很难直接应用于机器人。围绕这一问题,本文提出了支持开放环境的机器人场景理解混合云架构,并针对这一架构下的关键机制展开研究。具体而言,本文主要工作如下:(1)提出了支持开放环境的机器人场景理解混合云架构针对互联网服务难以提供机器人应用所需要的服务质量保证问题,本文提出了由专业云和公开云两层组成的混合云架构——私有的专业云资源可控,内置了与任务相关的知识,可快速识别熟悉物体;互联网公开云可以扩展机器人对开放环境陌生物体的识别能力。针对场景理解目标,本文进一步提出了基于支持向量机和深度学习的两种专业云构造方法。(2)设计了混合云架构中的公专协同机制在场景理解任务中,混合云架构得以顺利运行的核心机制是如何使得专业云和公开云无缝协同工作,使专业云无法正确识别的物体能被筛选出来,上传至公开云进行再次识别。本文分别面向基于支持向量机和深度学习两种专业云的特点,设计了相应公专协同机制,并通过性能收益的理论分析给出了其适用条件。(3)设计了基于数据融合的“标签-位置”映射机制场景理解需要将云端返回的语义信息正确标注在环境地图上。本文提出了基于数据融合的“标签-位置”映射机制,将机器人位置信息、物体深度和角度信息等转换成物体位置信息,进而通过添加语义标签,完成整个机器人场景理解过程。本文基于上述架构和机制,设计实现了云机器人场景理解原型系统,基于CORE、Faster R-CNN等算法和公开数据集开展了实验,对工作进行了全面验证。
基于深度学习的防控指挥系统的实现
这是一篇关于防控指挥,AR标签,深度学习,物体识别的论文, 主要内容为随着国家社会经济的不断发展与融合,国内外政治经济形势复杂、态势严峻,各种社会治安的问题和挑战随之欲来。为积极应对社会治安发展形势,需要全面的推进立体化社会治安防控体系建设,来提升实时化、动态化、信息化条件下社会治安治理能力。因此通过运用信息化技术提高社会治安立体化防控十分必要。本文基于XXX市全国创新创业基地的立体化防控指挥系统的设计与实现开发为项目背景。论文对项目的需求和展示方式进行了分析,将系统分为三大平台:视频监控平台、警情研判平台、综合指挥平台。本系统根据三大平台进行设计实现,视频平台主要对基地内所有的视频图像进行播放控制,对视频图像进行标签标注、画中画播放等,对视频图像进行增强现实;在视频平台中,使用深度学习中的TensorFlow Object Detection API物体识别技术,对视频画面中的行人、车辆等物体进行标记识别,基于此数据实现了人群行为分析的密度检测和逗留分析。警情平台主要对实时警情数据进行处理反馈,通过反馈时候提交案件坐标,实现警情热力图标注,为指挥决策和警力部署安排提供直观展示,也实现了对某一类案件警情分析研判展示。在综合平台中,实现了智慧交通模块、车辆卡口稽查布控、卡口车辆查询、红绿灯控制、人脸卡口识别告警、车辆轨迹分析等功能。通过这些主要的功能模块相互配合,来对基地的防控指挥提供信息化服务。本系统的技术实现采用了主流的B/S模式架构和C/S模式架构,其中视频监控平台采用了C/S架构,警情研判分析平台和综合指挥调度平台采用了B/S架构。前端展示主要采用C#进行Client客户端开发,VUEJS进行Browser浏览器端开发,后端业务逻辑采用Java语言进行编写,使用SpringMVC框架进行后端的功能接口开发;其中视频监控中,基于深度学习的目标识别采用python3.5进行开发。数据库方面,系统采用redis、Mysql、Oracle相结合的方式,采用主数据库-备份数据库方式,为系统的数据安全提供了可靠的保证。立体化防控指挥系统现已投入运行,取得了良好的反馈效果,在一定程度上提升了基地防控指挥的信息化水平,提高了工作效率。
本文内容包括但不限于文字、数据、图表及超链接等)均来源于该信息及资料的相关主题。发布者:源码港湾 ,原文地址:https://bishedaima.com/lunwen/54416.html