中文人物属性槽填充技术的研究与实现
这是一篇关于人物属性槽填充,依存关系,半监督模型,深层神经网络的论文, 主要内容为人物属性是指姓名、性别、工作单位等基本个人信息,人物属性槽填充是指从自由文本中提取给定人物的属性信息,并填充到对应的属性槽中。人物属性槽填充从自由文本中获得人物的结构化信息,是一种重要的基础性信息抽取任务,对于进行人名消岐、事件追踪以及构建知识图谱等任务具有重要的价值。本文研究基于中文自由文本的人物属性槽填充,探索了多种针对不同情况的人物属性抽取方法,并基于此构建人物属性挖掘系统。具体包含以下几个方面的工作:(1)实现了一种基于Bootstrapping的中文人物属性槽填充算法,该方法基于少量人工规则,通过迭代自动生成大量的属性抽取规则,最后使用生成的规则提取并填充对应属性的属性槽。(2)实现了一种基于依存关系树的半监督属性槽填充算法,该方法通过依存关系树获取人物、属性候选词与触发词的关系,通过发掘属性触发词获得人物属性。实验结果表明,该方法在所有属性槽上的槽填充评估F1值均达到85%以上。(3)分别实现了基于长短期记忆(Long Short-Term Memory,LSTM)模型以及卷积神经网络(Convolutional Neural Network,CNN)模型的中文人物属性槽填充算法,分析对比了这些监督模型与上述半监督模型在人物属性槽填充任务上的优劣。(4)基于上述模型,实现了一个中文人物属性挖掘系统。
基于元路径的深度学习推荐方法研究
这是一篇关于深层神经网络,因子分解机,注意力机制,决策树,异质信息网络,元路径,增强信息网络表示的论文, 主要内容为随着信息量的快速增长,推荐方法迅速发展。通过分析现有的方法只考虑显式的反馈信息或隐式的反馈信息,认为有必要将显式信息与隐式信息相结合,由于深度神经网络在挖掘非线性特征关系以及异质信息网络中不同元路径所挖掘潜在信息的出色表现,因此本文提出了一种新的基于元路径的个性化语义推荐方法。首先,针对如何挖掘特征中的潜在信息问题,本文基于异质信息网络(HIN),通过整合推荐系统中显式信息和隐式信息来构建增强信息网络,以获得语义更加丰富的特征表示。具体而言,用户-物品的文本(属性)和评分构成显式信息,用户-物品的交互是通过构建元路径来形成隐式信息,进而分别构建为增强显式特征表示和增强隐式特征表示来挖掘潜在信息。其次,为了挖掘特征之间的关系信息,本文通过将融合决策树的因子分解机算法(Cat Boost-Factor Machine,BFM)和深度神经网络(DNN)相结合,构建了BFM-DNN模型。具体而言,模型通过特征提取生成增强显式特征表示,而对于交互信息则是基于异质信息网络选取不同元路径来生成增强隐式特征表示,然后通过BFM-DNN模型训练并预测获得推荐结果列表。BFM算法将特征进行组合来挖掘特征之间的关系;DNN通过神经网络挖掘特征数据间的非线性特征的关系。最后,基于BFM-DNN模型,提出一个融合元路径的深度神经网络推荐方法,该方法通过用户-物品信息以形成增强显式特征表示和增强隐式特征表示,通过BFM-DNN模型对其进行训练,最终得到用户推荐序列。将本文方法在与基线方法进行了比较。BFM-DNN显著提升了评估指标,表明该方法对潜在信息的挖掘具有很好的效果。
中文人物属性槽填充技术的研究与实现
这是一篇关于人物属性槽填充,依存关系,半监督模型,深层神经网络的论文, 主要内容为人物属性是指姓名、性别、工作单位等基本个人信息,人物属性槽填充是指从自由文本中提取给定人物的属性信息,并填充到对应的属性槽中。人物属性槽填充从自由文本中获得人物的结构化信息,是一种重要的基础性信息抽取任务,对于进行人名消岐、事件追踪以及构建知识图谱等任务具有重要的价值。本文研究基于中文自由文本的人物属性槽填充,探索了多种针对不同情况的人物属性抽取方法,并基于此构建人物属性挖掘系统。具体包含以下几个方面的工作:(1)实现了一种基于Bootstrapping的中文人物属性槽填充算法,该方法基于少量人工规则,通过迭代自动生成大量的属性抽取规则,最后使用生成的规则提取并填充对应属性的属性槽。(2)实现了一种基于依存关系树的半监督属性槽填充算法,该方法通过依存关系树获取人物、属性候选词与触发词的关系,通过发掘属性触发词获得人物属性。实验结果表明,该方法在所有属性槽上的槽填充评估F1值均达到85%以上。(3)分别实现了基于长短期记忆(Long Short-Term Memory,LSTM)模型以及卷积神经网络(Convolutional Neural Network,CNN)模型的中文人物属性槽填充算法,分析对比了这些监督模型与上述半监督模型在人物属性槽填充任务上的优劣。(4)基于上述模型,实现了一个中文人物属性挖掘系统。
基于DNN与MultiResU_Net的语音增强方法研究
这是一篇关于语音增强,深层神经网络,低信噪比,多分辨率耳蜗图,多分辨率残差U型网络的论文, 主要内容为语音增强作为语音信号前端算法,主要用于去除语音信号中的背景噪声,提高语音的清晰度以及语音识别的准确度。语音增强技术在助听器、智慧医疗、智能家居等领域有重要应用。深度学习的非线性拟合能力比较强大,因此逐渐取代传统算法并被应用到语音增强中。然而当信噪比较低时,基于深度学习的语音增强算法依然面临着巨大挑战,语音增强效果仍有提升空间,本文基于掩蔽和映射法的语音增强技术,对深度神经网络(Deep Neural Network,DNN)与分辨率残差U型网络(Multiresolution Residual U Network,MultiResU_Net)进行改进,对带噪语音信号进行增强处理。主要研究工作如下:针对低信噪比提出包含语音局部和全局特性的多分辨率耳蜗特征(MultiResolution Cochleagram,MRCG),已被论证是当前最优的语音特征。为了挖掘低信噪比环境下的较清晰语音特性,采用短时谱幅度最小均方误差估计对MRCG中全局特征做降噪处理,进而提出改进MRCG,并将其用于分析时频域的语音特征。本文以改进MRCG为输入特征,以跳变连接的深度神经网络(Skip Connections-DNN,Skip-DNN)为训练网络,为提高网络训练效果以取对数的方式改进源失真比(Source-to-Distortion Ratio,SDR),并以改进SDR为损失函数,以理想比率掩蔽为训练目标,建立语音增强模型;在不同信噪比环境下,利用LibriSpeech ASR语料库中语音数据,对比分析主流特征组合、多分辨率听觉倒谱系数以及改进MRCG作为Skip-DNN输入时的语音增强效果;研究均方误差、SDR和改进SDR作为损失函数对网络训练的影响。研究表明,基于改进MRCG和Skip-DNN的语音增强模型的效果最好;当改进SDR作为基于改进MRCG和Skip-DNN语音增强模型的损失函数时,客观语音评价得分较高。为进一步提高低信噪比环境中语音增强效果,将语音信号经短时傅立叶变换后得到的时频谱图作为网络输入和训练目标,改进MultiResU_Net,采用亚像素卷积层改进上采样过程以恢复网络的细节、将残差路径与解码器端上采样的输出特征以混合通道的方式进行重排以此提高信息融合的能力,建立改进MultiResU_Net语音增强模型。在不同信噪比环境下,利用LibriSpeech ASR语料库中语音数据,研究在不同网络深度和不同窗口尺寸时,改进MultiResU_Net模型的语音增强效果;探讨基于传统MultiResU_Net、全卷积神经网络、U型网络以及改进MultiResU_Net语音增强模型的增强效果。研究表明,当深度为9,窗口尺寸为3×5时,改进MultiResU_Net模型最优;不同信噪比条件下,改进MultiResU_Net语音增强模型比其他模型评价指标得分高,由此可知,本文提出的改进MultiResU_Net语音增强模型的增强效果较好,此方法尤其适用于低信噪比下的语音增强。
融合实体关系信息的答案选择网络
这是一篇关于知识库,深层神经网络,注意力机制,句向量的论文, 主要内容为答案选择任务是自然语言处理领域中的一个重要分支,同时也是智能问答系统、人机对话系统的重要支撑技术。近年来,随着各类深度学习算法在自然语言处理领域的广泛应用,研究者对问答选择任务模型算法的探索也取得了明显的进展。然而,答案选择模型的性能依旧无法满足行业应用的需求,如何进一步提升模型的准确率,是本课题的探索方向。在人类判断问答··句匹配度过程中,判断问答句语义的同时,往往会调用日常积累的知识作为辅助,而利用深层神经网络构建的答案选择模型只能基于问答句本身的语义信息进行判断,无法像人类一样从外部获取知识。在深层神经网络模型的基础上引入外部知识库(Knowledge Based,KB)信息能有效解决模型的这一短板。近年来,知识库相关任务在也是自然语言处理领域比较热门的研究方向之一。目前已经存在多种不同形式的知识库、知识图谱,这些知识库中存在大量的知识库实体信息和实体关系信息。目前,已有相关研究将知识库实体信息与深层神经网络模型相结合,这种方法起到了一定的优化效果。然而,除了知识库实体信息以外,知识库中还存在着大量的知识库关系信息,这些关系信息与实体信息相结合,组成了数量上是实体信息数倍的知识库三元组信息。因此,如何进一步利用知识库关系信息与深层神经网络模型相结合的方法,达到提升答案选择模型性能的目的,是本课题的重点研究方向。针对以上方向,本课题利用深层神经网络结合外部知识库信息的方法,设计了融合知识库信息的双向长短时记忆网络(Knowledge Based-Bidirectional Long Short Term Memory,KB-BiLSTM),本文主要有以下贡献:第一,利用WordNet词汇关系进行注意力机制优化。通过WordNet中的词汇匹配得到问答句间各词的知识库关系向量,利用该关系向量计算问答句基于知识库关系向量的注意力矩阵,最后将该注意力矩阵与通过其他方法计算得到的注意力矩阵结合,达到优化整体模型注意力机制的目的。通过实验分析,证明了该方法能够优化答案模型的整体性能。第二,利用了将知识库关系信息引入问答模型句编码的方法。首先,利用知识库关系信息结合问答句上下文,计算得到基于知识库关系向量的问答句句向量表示,并与基于空间词向量编码的问答句句向量进行融合,利用知识库关系信息丰富问答句句表示信息。基于关系向量编码的句向量与不同的网络模型所得的句向量编码相结合,在多个答案选择数据集上进行实验,证明引入知识库关系向量句编码的方法能提升模型判断的正确率。第三,利用知识库关系信息优化问答句词向量权重。在对神经网络编码的句矩阵的词向量加权求和过程中,引入知识库关系信息,代替传统的最大值池化或平均值池化,优化各词向量在整个句矩阵中的权重,得到信息更丰富的问答句向量表示。通过在不同的基准模型上的实验,证明引入知识库关系向量可以优化问答句词向量权重,从而提升整体模型的性能。
本文内容包括但不限于文字、数据、图表及超链接等)均来源于该信息及资料的相关主题。发布者:代码客栈 ,原文地址:https://bishedaima.com/lunwen/54213.html