6篇关于灰狼优化算法的计算机毕业论文

今天分享的是关于灰狼优化算法的6篇计算机毕业论文范文, 如果你的论文涉及到灰狼优化算法等主题,本文能够帮助到你 基于知识图谱与机器学习的贷款违约预测 这是一篇关于贷款违约预测

今天分享的是关于灰狼优化算法的6篇计算机毕业论文范文, 如果你的论文涉及到灰狼优化算法等主题,本文能够帮助到你

基于知识图谱与机器学习的贷款违约预测

这是一篇关于贷款违约预测,知识图谱,机器学习,图卷积网络,灰狼优化算法的论文, 主要内容为贷款违约风险指借款人不愿或不能履行偿还到期债务的义务而构成合同违约的可能性,事关银行等金融机构的资金安全与稳健经营,对可能违约的贷款进行预测可以有效降低已发放贷款的潜在损失。目前金融机构通常依靠数理统计或机器学习算法进行贷款违约预测,这些方法无法有效处理金融数据中的复杂实体关系,而知识图谱能够有效挖掘数据中的语义信息。因此,本文提出了一种结合知识图谱与机器学习技术的IGWO-XGB-KG模型,在构建金融知识图谱的基础上,使用知识表示学习将金融知识图谱嵌入到低维稠密的向量空间中,并获取贷款实体的嵌入向量,与其他特征结合后一起输入到XGBoost模型中进行训练,最后通过Logistic-Tent混沌映射与淘汰机制改进灰狼优化算法,并对XGB-KG模型的超参数进行优化。本文主要研究内容包括以下几方面:(1)针对来源于真实业务场景的网络借贷数据集,深入探索数据质量,以可视化的方式对数据特征展开分析,随后进行数据预处理。根据业务规则设计语义数据模型,以自顶向下的方式构建金融知识图谱,并存入Neo4j图数据库。(2)提出了结合知识表示学习与极限梯度提升的XGB-KG模型,基于两层关系图卷积网络与Compl Ex模型搭建图自编码器结构,将金融知识图谱的向量化表示作为补充特征输入到XGBoost模型中。实验结果表明,将知识图谱嵌入作为补充特征可以提升分类模型预测贷款违约风险的性能,与XGBoost相比,本文提出的XGB-KG模型在各项评价指标上均有提升。(3)考虑到XGB-KG模型超参数众多且结构复杂,本文借助群体智能优化思想,以灰狼优化算法为基础,结合Logistic-Tent混沌映射与淘汰机制提出了改进的IGWO算法,并对XGB-KG模型超参数进行优化。实验结果表明,本文提出的IGWO-XGB-KG方法在贷款违约预测任务中较XGBoost的F1分数与AUC分数分别提升了5.5%、3.6%。综上所述,本文为贷款违约预测任务中多源数据的关联和知识图谱的应用提供了参考,所构建的贷款违约预测模型取得了较好的分类效果,能够准确、高效地识别出潜在违约的贷款,可以为金融领域的风险管理提供参考依据,对于维护金融资金安全具有重要意义。

基于改进灰狼算法的微服务容器调度多目标优化问题

这是一篇关于微服务容器调度,灰狼优化算法,多目标优化算法,帕累托理论的论文, 主要内容为近年来,随着微服务和容器技术的发展,基于微服务容器调度的研究也越来越受到重视,在该领域中,如何使物理节点和被分配在物理节点中的容器实例在集群中达到负载均衡、系统开销最小化、系统可靠性更高,是目前的主要研究问题之一。本文旨在优化微服务容器调度的多目标问题,虽然在容器调度方面的问题已经有了一些解决方案,但大部分解决方案并没有考虑到微服务容器实例间的位置关系,存在着寻优速度慢、对模型的描述不全面、内存占用多、算法容易陷入局部最优等问题。因此,本文基于微服务容器实例之间的位置关系,把容器调度问题转变为多目标优化问题提出了多目标优化模型(Multi-objective Optimization TBF Model,MO-TBF),由于灰狼优化算法具有参数少,寻优能力强,不易陷入局部最优的优点,所以本文基于传统的灰狼优化算法,提出了一种新的多目标灰狼算法(Shuffle Dynamics Multi-objective Grey Wolf Optimization Algorithm,SD-MOGWO)用来解决该问题,在与ACO-CMS、GA-MOCA、Spread算法进行对比后发现本文所提出的算法效果更好。本文的贡献主要有2点:(1)MO-TBF模型:该模型对现有的解决方法中的模型进行了改进,针对现有模型中没有考虑到容器间位置关系,即微服务容器实例是否被分配到同一物理节点的问题进行建模。引入了负载不均衡率的概念,使得算法在求解模型时能够寻找到更好的容器调度方案,在网络传输开销、集群负载均衡和系统可靠性三个方面提出了优化目标函数,并且把三个优化目标函数整合成一个新的总体目标函数即MO-TBF模型。(2)SD-MOGWO算法:本文在传统的灰狼优化算法(GWO)的基础上,针对微服务容器调度的多目标优化问题,引入了混合跳蛙算法的memeplex分组策略,使GWO算法能够实现并行寻优。还引入了进化种群动力学(EPD)的概念使得每次寻优都能够去掉适应度较差的一半个体,保留较好的一半,还对灰狼的位置更新加入了权重参数,使算法的性能得到进一步的提升,实验表明,和其他算法的效果相比该算法的效果有着明显的提升。

动力锂电池荷电状态估计研究

这是一篇关于荷电状态估计,极限学习机,灰狼优化算法,分数阶等效电路模型,无迹卡尔曼滤波算法的论文, 主要内容为随着能源和环保问题的日益突出,电动汽车以其低噪音和零排放等优点而受到全社会的广泛关注和深入研究。作为电动汽车的核心部件之一,锂离子动力电池由于其具有能量密度高、安全性能好的优势而成为当前电动汽车的主流动力源。电池荷电状态(State of charge,SOC)是表征锂电池剩余电量的参数,也是电池管理系统中最重要的性能指标之一。本文概述了当前动力电池的发展现状及其电池管理系统的关键技术,进一步归纳了锂电池建模和SOC估算方法的国内外研究现状及其特点。围绕锂电池SOC估计方法的核心---电池建模和估算方法两方面进行了研究讨论,主要研究工作如下:首先,并根据电池性能测试实验平台设计了电池单体测试流程,进行恒流放电工况、脉冲放电工况以及动态模拟工况下的测试。为了提高电池SOC的估计精度,提出一种基于改进灰狼算法(IGWO)优化极限学习机(ELM)的锂电池SOC估计方法。通过引入Tent混沌映射、收敛因子非线性递减和高斯变异算子和贪婪选择策略,构建一种具有良好全局寻优性能的改进灰狼算法,并利用该算法优化极限学习机的隐层参数,建立起基于IGWO优化ELM的锂电池SOC估计模型;并将仿真实验数据,以及实际实验数据应用于该模型,进行锂电池SOC估计,结果表明该SOC估计模型具有较高的估计精度和可靠性能。动力锂电池是一个复杂的电化学系统,传统整数阶电池模型无法准确表征系统的动态特性。基于电池电化学阻抗谱和分数阶微积分理论,依据二阶RC等效电路模型结构,建立动力电池分数阶RC等效电路模型,并采用灰狼算法进行模型参数辨识。基于该分数阶模型设计分数阶无迹卡尔曼滤波器用于估计动力电池SOC,并与UKF滤波算法进行比较。通过多种动态工况下实验验证,结果表明所提出的分数阶电池模型在不同工况下均保持较高的精度,具有很好的鲁棒性。同时,基于分数阶模型的FUKF估计算法在多种工况下都具有较高的SOC估算精度,且比基于整数阶模型的估计精度更高。在FUKF的基础上,提出一种ELM网络和FUKF相结合的动力锂电池SOC估计方法。将FUKF算法迭代过程中的估计误差作为ELM网络的输出,卡尔曼滤波增益、状态估计误差和端电压预测误差作为输入,离线训练ELM网络,然后将训练成功的ELM网络用于补偿FUKF算法的估计误差。通过电池动态工况实验数据验证,结果表明,与ELM模型和FUKF算法相比,所提出的基于ELM-FUKF的SOC估计方法具有良好的鲁棒性能,能有效提高电池SOC估计精度。

基于混合神经网络的无人帆船风速风向预测研究

这是一篇关于风速预测,风向预测,混合神经网络,卷积神经网络,长短期记忆神经网络,网格搜索算法,灰狼优化算法,无人帆船的论文, 主要内容为近年来无人帆船以其绿色环保、自给自足的特点被广泛应用在多个领域,如海洋数据监测、水域数据采集等。风速、风向数据是影响无人帆船航行性能和决策至关重要的因素,准确的预测未来时刻的风速、风向数据,对无人帆船的安全性、性能以及决策具有重要意义。因此,针对风速、风向预测展开系统深入的研究,具有一定的理论意义和工程价值。本文以风速、风向预测问题为导向,基于深度学习神经网络模型方法,分别进行了单维输入单模型风速预测,多维输入混合模型多步风速预测以及单维输入多模型风向预测三部分研究工作。首先,针对传统时间序列分析方法在非线性较强的风速数据上表现不佳的问题,设计了基于长短期记忆(long short-term memory,LSTM)神经网络的风速预测方案。该方案主要由两部分组成,分别是数据处理模块和LSTM神经网络模块,数据处理模块负责原始数据的提取、预处理以及时间序列化。LSTM神经网络模块负责学习输入风速历史序列和输出之间的映射关系,提取未来时刻风速数据与历史序列中的时间依赖关系。为了能够全面评估LSTM方案的预测性能,使用均方根误差(root mean squared error,RMSE)和平均绝对误差(mean absolute error,MAE)评估指标量化模型预测误差,并开发了人工神经网络(artificial neural network,ANN)和循环神经网络(recurrent neural network,RNN)模型作为基准模型,在三个来自不同基站的数据集上进行实验。实验结果表明LSTM预测方案在大部分预测点上具有良好的预测精度。其次,从现实角度来看,自然界风受多种因素影响,考虑到其他因素数据能够为模型提供更多有效信息以及混合模型相比较于单一模型具有更好的鲁棒性,本文设计了一种新颖的基于卷积神经网络(convolutional neural network,CNN)和LSTM的混合神经网络(CNN-LSTM)多步风速预测方案。该方案引入了多维输入数据,充分发挥了CNN在提取空间特征的强大能力和LSTM在分析时间序列特征的优异性能。在超参数优化方面,本文基于网格搜索算法提出了多步网格搜索,提升了超参数的搜索精度。在模型预测性能评估方面,引入了相关系数(correlation coefficient,CC)和R2指标来评估模型的拟合能力。此外,开发了ANN、RNN、LSTM、CNN四种预测模型作为基准模型,在三个不同的数据集上进行实验。实验结果表明,在每一项测试中CNN-LSTM在绝大多数预测点上均具有更好的精度,在处理不同数据分布的情况下表现出了良好的稳定性。最后,针对风向数据的特殊性,提出使用数据分解的方法解决风向数据从极坐标中转换为数值表示形式所存在的数值突变问题,设计了双LSTM(Double LSTM,DLSTM)混合模型对风向数据各分量以并行的方式进行预测。在超参数优化方面,为了平衡搜索精度和速度问题,本文引入了灰狼优化算法来确定超参数。在模型预测性能评估方面,基于常规RMSE和MAE计算方式进行了相应的调整,使其能够更好地评估真实风向数据和预测值之间的误差情况。此外,开发了两种其他风向预测方案作为对比,实验结果表明,基于灰狼算法优化的DLSTM风向预测方案具有优秀的预测精度,且在数据波动较为严重的时间点上也能较好地预测出风向数据的变化趋势。

动力锂电池荷电状态估计研究

这是一篇关于荷电状态估计,极限学习机,灰狼优化算法,分数阶等效电路模型,无迹卡尔曼滤波算法的论文, 主要内容为随着能源和环保问题的日益突出,电动汽车以其低噪音和零排放等优点而受到全社会的广泛关注和深入研究。作为电动汽车的核心部件之一,锂离子动力电池由于其具有能量密度高、安全性能好的优势而成为当前电动汽车的主流动力源。电池荷电状态(State of charge,SOC)是表征锂电池剩余电量的参数,也是电池管理系统中最重要的性能指标之一。本文概述了当前动力电池的发展现状及其电池管理系统的关键技术,进一步归纳了锂电池建模和SOC估算方法的国内外研究现状及其特点。围绕锂电池SOC估计方法的核心---电池建模和估算方法两方面进行了研究讨论,主要研究工作如下:首先,并根据电池性能测试实验平台设计了电池单体测试流程,进行恒流放电工况、脉冲放电工况以及动态模拟工况下的测试。为了提高电池SOC的估计精度,提出一种基于改进灰狼算法(IGWO)优化极限学习机(ELM)的锂电池SOC估计方法。通过引入Tent混沌映射、收敛因子非线性递减和高斯变异算子和贪婪选择策略,构建一种具有良好全局寻优性能的改进灰狼算法,并利用该算法优化极限学习机的隐层参数,建立起基于IGWO优化ELM的锂电池SOC估计模型;并将仿真实验数据,以及实际实验数据应用于该模型,进行锂电池SOC估计,结果表明该SOC估计模型具有较高的估计精度和可靠性能。动力锂电池是一个复杂的电化学系统,传统整数阶电池模型无法准确表征系统的动态特性。基于电池电化学阻抗谱和分数阶微积分理论,依据二阶RC等效电路模型结构,建立动力电池分数阶RC等效电路模型,并采用灰狼算法进行模型参数辨识。基于该分数阶模型设计分数阶无迹卡尔曼滤波器用于估计动力电池SOC,并与UKF滤波算法进行比较。通过多种动态工况下实验验证,结果表明所提出的分数阶电池模型在不同工况下均保持较高的精度,具有很好的鲁棒性。同时,基于分数阶模型的FUKF估计算法在多种工况下都具有较高的SOC估算精度,且比基于整数阶模型的估计精度更高。在FUKF的基础上,提出一种ELM网络和FUKF相结合的动力锂电池SOC估计方法。将FUKF算法迭代过程中的估计误差作为ELM网络的输出,卡尔曼滤波增益、状态估计误差和端电压预测误差作为输入,离线训练ELM网络,然后将训练成功的ELM网络用于补偿FUKF算法的估计误差。通过电池动态工况实验数据验证,结果表明,与ELM模型和FUKF算法相比,所提出的基于ELM-FUKF的SOC估计方法具有良好的鲁棒性能,能有效提高电池SOC估计精度。

基于DRGs分组的费用预测模型研究与实现

这是一篇关于疾病诊断相关分组,支持向量机回归,决策树算法,灰狼优化算法,冠心病,费用预测的论文, 主要内容为近年来,我国面临医疗卫生总费用连年递增,疾病诊疗过程不规范,百姓看病难、看病贵,医保基金收支严重失衡等诸多问题。鉴于疾病诊断相关分组(DRGs)在国内外医疗控费领域中所取得的显著成效,本文结合机器学习算法,开展基于DRGs分组的费用预测模型研究,为控制医疗费用不合理增长提供新参考,为疾病费用预测方法提供新思路。本文主要研究工作如下:首先,本文以某三甲医院主要诊断为冠心病的病案首页数据作为研究对象,对其展开数据集成、规约、清洗、变换等一系列预处理操作,以此来提高数据质量,确保后续DRGs分组结果的合理性和费用预测模型的科学性。然后,本文对CHS-DRGs的分组原理和分组逻辑进行深入研究;运用单因素分析、多元线性回归分析出影响冠心病住院费用的主要因素,作为DRGs分组的分组节点;对CART、CHAID、E-CHAID三种决策树算法进行深入研究,通过这三种不同的决策树算法进行DRGs分组,筛选最优分组模型。研究结果表明:基于E-CHAID的DRGs分组效果最好,其组内同质性更高,组间变异性更大。接着,本文提出一种基于DRGs分组的GWO-SVR费用预测模型。通过剔除线外患者数据,将DRGs分组的病种权重作为输入特征进行费用预测,增强模型预测结果的可靠性,并在一定程度上起到合理控费的作用。通过选择合适的核函数来保证SVR算法的预测精度;通过灰狼算法对SVR进行参数优化,解决SVR算法在大规模样本中的高运算、高耗时缺陷,降低参数寻优时间,进一步提高预测精度;通过与其他优化算法的SVR模型进行实验对照,验证本文所提出GWO-SVR算法的优越性。研究结果表明:基于DRGs分组的GWO-SVR费用预测模型可以很好的对冠心病住院费用进行预测。最后,从系统设计、系统实现两方面入手,利用Spring MVC框架、My SQL数据库实现费用预测系统。

本文内容包括但不限于文字、数据、图表及超链接等)均来源于该信息及资料的相关主题。发布者:源码客栈 ,原文地址:https://bishedaima.com/lunwen/46143.html

相关推荐

发表回复

登录后才能评论