基于深度学习的电商评论情感分析
这是一篇关于BERT词向量,注意力机制,情感分析,电商评论的论文, 主要内容为电子商务与传统商品交易相比提供了在线评论功能,这在电商平台竞争激烈的背景下,对于消费者的选择产生至关重要的影响。如何在海量的评论中准确挖掘消费者情感,并据此改进产品质量、销售策略、客户服务具有重要的商业价值和研究意义。本文采用深度学习的方法针对电商评论数据反映的情感倾向展开研究。结合长短期记忆神经网络LSTM、注意力机制、BERT和卷积神经网络CNN等算法,提高情感分析的准确度。本文的主要工作如下:(1)针对传统神经网络Long Short-Term Memory(LSTM)在粗粒度情感分析中理解语义不全面,情感信息的捕捉不准确的问题,提出了一种融合注意力机制(Attention)与双向LSTM网络相结合的BiLSTM-Attention网络模型,利用长短期记忆神经网络对于时序序列结构的分析,充分挖掘句子中的潜在信息,有效克服长期遗忘的问题。BiLSTM模型通过对语言文本的双向分析,对比普通的LSTM模型能够更好的捕获句子前后的信息。注意力机制的使用能够对句子中不同特征分配权重,对于句子中倾向于用户情感的特征信息进行关注,有效改善识别效率。实验结果表明,在京东爬取的小米手机评论数据集中,融合注意力机制与双向LSTM的神经网络模型相较于其他几个常用的模型,效果有较大的提升。(2)在对电商评论的细粒度情感分析中,使用Word To Vector(Word2Vec),Global Vectors for Word Representation(GloVe)等常见的几种语言模型存在只能够产生固定化语义词向量问题。针对此问题,本文提出了一种基于预训练的Bidirectional Encoder Representations from Transformers(BERT)网络与卷积神经网络(CNN)相结合的BERT-CNN网络模型。BERT模型相较于Word2Vec,将上下文无关的静态(static)向量变成上下文相关的动态(dynamic)向量,进一步增加了词向量模型的泛化能力,充分描述了字符级、词级、句子级之间的关系特征,更好的实现了词语在高维空间的映射。本文采用BERT模型获取句子中的词向量,借助卷积神经网络进一步的进行特征选择与降维,最终获得用户的情感取向。实验表明,在多粒度的京东电商评论数据集中,BERT-CNN网络模型识别率更高,效果提升较大,但是相比于传统神经网络模型,需要消耗大量时间进行模型的训练。
调味品行业顾客感知分析——基于电商用户评论的文本挖掘
这是一篇关于电商评论,文本挖掘,情感倾向的论文, 主要内容为网络购物已经成为现代生活不可或缺的一部分,对于顾客的购物感受研究具有长足意义。其中一个重要研究方向是评论文本研究,对于不同的行业以及不同的商品类型,其评论能带给研究者不同方面的思考与结论。本文的目的是通过文本情感分析,透过三家调味品龙头企业,找寻潜在的行业共性、对比三家企业各自经营优势劣势,管窥调味品行业的顾客感知,从而把握行业的电商平台优势,以及其中存在的普遍问题,建立模型针对大量评论文本,得到有效的文本情感倾向分类方法,通过评论挖掘而非平台获取星级的方式快速得到客观准确的真实顾客感知。本文在文本挖掘技术的基础上,以情感分析技术作为主线,在文本收集与预处理关键技术方面,探索实现了评论文本爬虫,中文分词,停用词过滤,词性标注等;并在此基础上研究了文本词句的向量化、文本词向量聚类,以达到评论分类目的,基于情感词典构建评论情感倾向计算模型,并且用于后续的情感对比分析以及统计方法的建模与评估等实证分析。本文主要研究工作及方法包括:第一,本文使用网络爬虫技术,获取京东商城三家调味品龙头企业全部商品的所有可见评论。采集了平台中近15万条商品评论作为语料库。该语料库来自于消费者对调味品的主观评论,去除其中无效评论,对研究文本的情感倾向问题具有一定的意义。第二,通过情感词典方法,针对分词后评论文本重新进行情感打分。根据得分判断评论情感倾向,使用TF-IDF加权Word2vec方法对评论进行向量化。第三,向量化后的词语,使用k-means文本聚类进行词聚类,根据语句所处类别,进一步获得评论分类,得到评论的所有维度。第四,最终使用统计模型针对句向量和情感倾向建立情感分类模型,针对大量文本情况快速准确得到文本的情感倾向、检验前期情感词典的打分效果与倾向准确度。分别使用朴素贝叶斯、随机森林、多元逻辑回归方法,建立情感倾向分类模型,针对采用独热算法和TF-IDF加权Word2vec算法得到的句向量进行对比,最终后者得到了较高准确率。经过实证分析,对三个平台98751条有效文本进行聚类分析,根据手肘法并且结合实际需求得到9个维度分别为店铺、客服、品控、物流、售后、包装、口味、折扣及时间。由情感词典打分的结果:所有维度的情感倾向均为正向但差异悬殊,其中品控、折扣、物流三个维度情感倾向突出,均达到0.5,而售后与客服维度情感值存在较大提升空间,一种情况是商品本身出现问题,但客服人员的处理不能令人满意;另一种情况是快递物流出现问题,矛盾转向店铺。第三方面是客户未真实收获购买时预期的服务与优惠。在三个企业的差异上,HT企业的折扣满意度较其他两家企业偏高但品控维度较低。最终分别为调味品行业的电商发展以及三家企业提出建议,从行业的角度,结合分析结果,在维持品控的优势以及电商平台特有的价格优势同时,一是提高以顾客需求为导向的培养方式,二是优化人才引进培养流程,三是积累消费者反馈的问题及体验度,优化解决那些影响售后服务的环节。针对三家企业,电商平台应追求利润与质量之间的平衡关系,对于太过低于行业平均水平的企业进行惩罚。同时对于像XH企业这种不具有历史与地缘优势的企业,其优秀的商品概念、广泛的渠道拓展等手段,将成为其他行业企业想在激烈竞争中脱颖而出的可借鉴的途径。
基于深度学习的电商评论情感分析
这是一篇关于BERT词向量,注意力机制,情感分析,电商评论的论文, 主要内容为电子商务与传统商品交易相比提供了在线评论功能,这在电商平台竞争激烈的背景下,对于消费者的选择产生至关重要的影响。如何在海量的评论中准确挖掘消费者情感,并据此改进产品质量、销售策略、客户服务具有重要的商业价值和研究意义。本文采用深度学习的方法针对电商评论数据反映的情感倾向展开研究。结合长短期记忆神经网络LSTM、注意力机制、BERT和卷积神经网络CNN等算法,提高情感分析的准确度。本文的主要工作如下:(1)针对传统神经网络Long Short-Term Memory(LSTM)在粗粒度情感分析中理解语义不全面,情感信息的捕捉不准确的问题,提出了一种融合注意力机制(Attention)与双向LSTM网络相结合的BiLSTM-Attention网络模型,利用长短期记忆神经网络对于时序序列结构的分析,充分挖掘句子中的潜在信息,有效克服长期遗忘的问题。BiLSTM模型通过对语言文本的双向分析,对比普通的LSTM模型能够更好的捕获句子前后的信息。注意力机制的使用能够对句子中不同特征分配权重,对于句子中倾向于用户情感的特征信息进行关注,有效改善识别效率。实验结果表明,在京东爬取的小米手机评论数据集中,融合注意力机制与双向LSTM的神经网络模型相较于其他几个常用的模型,效果有较大的提升。(2)在对电商评论的细粒度情感分析中,使用Word To Vector(Word2Vec),Global Vectors for Word Representation(GloVe)等常见的几种语言模型存在只能够产生固定化语义词向量问题。针对此问题,本文提出了一种基于预训练的Bidirectional Encoder Representations from Transformers(BERT)网络与卷积神经网络(CNN)相结合的BERT-CNN网络模型。BERT模型相较于Word2Vec,将上下文无关的静态(static)向量变成上下文相关的动态(dynamic)向量,进一步增加了词向量模型的泛化能力,充分描述了字符级、词级、句子级之间的关系特征,更好的实现了词语在高维空间的映射。本文采用BERT模型获取句子中的词向量,借助卷积神经网络进一步的进行特征选择与降维,最终获得用户的情感取向。实验表明,在多粒度的京东电商评论数据集中,BERT-CNN网络模型识别率更高,效果提升较大,但是相比于传统神经网络模型,需要消耗大量时间进行模型的训练。
基于BERT的电商评论观点挖掘系统设计与实现
这是一篇关于观点挖掘,预训练,BERT模型,电商评论,Flask框架的论文, 主要内容为电商行业的兴起,各类货品的流通速度加快。既方便了消费者购买,又让人们对商品的品质产生更高的要求。基于电商平台的载体,一种评论导向的消费方式逐步在市场上扩充开来。消费者购物时候,会参考以前买过该商品用户提供的评价信息,从而调整自己的消费意愿。这意味着电商评论数据对商品销量、商家利益产生了直接的影响。当前,电商平台上存在着庞大的评论文本数据,其中涵盖着店家想要急切知道的用户观点等信息。这些信息可有效帮助商家进行舆情分析、用户理解、产品优化和营销决策等,具有非常大的实用价值和应用前景。本文针对电商产品评论进行了方面级的观点挖掘,首先利用Bert预训练模型在Pytorch框架上使用监督学习的方法,训练出一个深度神经网络模型,并使用交叉验证的方法进行验证。实验结果证明,对于化妆品领域和笔记本电脑领域的精准率和召回率都可以达到70%以上,F1-score也因此达到了75%左右,这是一个十分理想的结果。但是化妆品领域的F1结果总是高于笔记本电脑领域,这是因为笔记本电脑的有标注数据集只有约900条,在数量上远小于14000条化妆品的有标注数据集。针对有标签的训练数据集数量小、训练效果欠佳的缺陷,提出一种基于深度迁移学习的改进方法,即基于不同的预训练模型,使用其他领域的数据重新对模型进行预训练,然后通过微调过程将模型迁移到目标领域,并通过集成学习的方法合并各模型,进一步改进了模型。实验结果表示,在精准率上,改进后的模型有5%-6%的提升,召回率有4%-7%的提升,F1-score值有5%左右的提升。无论是精准率、召回率还是F1-score值,经过再次预训练的模型的各项得分都远高于未经改进的Bert模型,特别地,经过集成学习以后,模型的F1-score值达到了82%,相较于改进前有8%的提升。本文最后设计并实现了一个B/S架构的基于Flask的电商评论观点挖掘系统,该系统包含注册登录、用户管理、观点挖掘、后台管理等模块,重点将改进后的深度神经网络模型部署到系统中,用户可以在友好的界面下与系统各模块进行交互,对商品评论数据进行观点挖掘,最终结果以图形化方式展现给用户。
基于主题分析的电商评论有用性研究
这是一篇关于电商评论,评论有用性,评论主题的论文, 主要内容为近年来,随着移动互联网的普及和电商的急速发展,人们逐渐习惯了通过互联网进行日常生活的消费。当消费者在电商平台上进行购物活动时,往往会参考其他已购买者发布的评论信息用以做出购买决策。以往的研究表明相较于商家所展示的商品信息,消费者更愿意相信在线评论。电商平台上的用户评论已成为人们对产品或服务做出购买决策时的重要参考。然而,由此引发的一个重要的问题是,随着电商平台上的评论数量日益增多且评论的质量良莠不齐。这一方面使得在线商家很难了解顾客对其产品或者服务的真实关切,另一方面也使得那些真正对消费者购买决策有用的评论被湮没在巨量的评论之中。本文以抓取到的大众点评网站10家店铺中的两家店铺为例,总计4000条在线评论作为研究对象,利用本文所提出的Help-LDA、Tfidf-LDA、Max-LDA与经典的LDA模型及其扩展模型来对电商评论进行主题和有用性分析。通过对比发现,本文所提出的模型Help-LDA模型能够很好的帮助商家解读评论,而且Help-LDA+SVM在评论有用性预测方面取得良好的效果。一方面帮助商家了解在线消费者对于商品或服务的真实关切,针对性的改善商家的商品和服务质量;另一方面探讨评论主题和评论有用性之间的关系,以预测新增评论对于购买决策的有用性,帮助消费者快速找出有用性较高的评论,在阅读少量的评论就能做出购买决策。在大众点评数据集上的实验表明,从电商评论中进行主题抽取能够帮助在线商家了解顾客的真实关切并能够显著提升评论有用性预测。
基于BERT的电商评论观点挖掘系统设计与实现
这是一篇关于观点挖掘,预训练,BERT模型,电商评论,Flask框架的论文, 主要内容为电商行业的兴起,各类货品的流通速度加快。既方便了消费者购买,又让人们对商品的品质产生更高的要求。基于电商平台的载体,一种评论导向的消费方式逐步在市场上扩充开来。消费者购物时候,会参考以前买过该商品用户提供的评价信息,从而调整自己的消费意愿。这意味着电商评论数据对商品销量、商家利益产生了直接的影响。当前,电商平台上存在着庞大的评论文本数据,其中涵盖着店家想要急切知道的用户观点等信息。这些信息可有效帮助商家进行舆情分析、用户理解、产品优化和营销决策等,具有非常大的实用价值和应用前景。本文针对电商产品评论进行了方面级的观点挖掘,首先利用Bert预训练模型在Pytorch框架上使用监督学习的方法,训练出一个深度神经网络模型,并使用交叉验证的方法进行验证。实验结果证明,对于化妆品领域和笔记本电脑领域的精准率和召回率都可以达到70%以上,F1-score也因此达到了75%左右,这是一个十分理想的结果。但是化妆品领域的F1结果总是高于笔记本电脑领域,这是因为笔记本电脑的有标注数据集只有约900条,在数量上远小于14000条化妆品的有标注数据集。针对有标签的训练数据集数量小、训练效果欠佳的缺陷,提出一种基于深度迁移学习的改进方法,即基于不同的预训练模型,使用其他领域的数据重新对模型进行预训练,然后通过微调过程将模型迁移到目标领域,并通过集成学习的方法合并各模型,进一步改进了模型。实验结果表示,在精准率上,改进后的模型有5%-6%的提升,召回率有4%-7%的提升,F1-score值有5%左右的提升。无论是精准率、召回率还是F1-score值,经过再次预训练的模型的各项得分都远高于未经改进的Bert模型,特别地,经过集成学习以后,模型的F1-score值达到了82%,相较于改进前有8%的提升。本文最后设计并实现了一个B/S架构的基于Flask的电商评论观点挖掘系统,该系统包含注册登录、用户管理、观点挖掘、后台管理等模块,重点将改进后的深度神经网络模型部署到系统中,用户可以在友好的界面下与系统各模块进行交互,对商品评论数据进行观点挖掘,最终结果以图形化方式展现给用户。
本文内容包括但不限于文字、数据、图表及超链接等)均来源于该信息及资料的相关主题。发布者:源码客栈网 ,原文地址:https://bishedaima.com/lunwen/48990.html