(19)国家知识产权局 (12)发明 专利申请 (10)申请公布号 (43)申请公布日 (21)申请 号 202210390699.1 (22)申请日 2022.04.14 (71)申请人 西安邮电大 学 地址 710121 陕西省西安市长安区西长安 街618号 (72)发明人 曹小鹏 梁浩 王凯丽  (51)Int.Cl. G06K 9/62(2022.01) G06F 40/284(2020.01) G06F 40/126(2020.01) G06F 40/30(2020.01) G06N 3/04(2006.01) G06N 3/08(2006.01) (54)发明名称 一种轻量 化方面级 文本情感分析方法 (57)摘要 本发明提出一种轻量化方面级文本情感分 析方法, 解决基于DNN的方法在基于全局上下文 特征识别目标方面的情绪极性之前, 只专注于分 析全局上下文与情绪极性的相关性的问题, 发明 的技术方案主要包括以下步骤: (1)将经过数据 清洗处理的数据集输入Di stilroberta预训练模 型(2)将向量化表示的词向量输入SRU++特征提 取网络(3)根据不同数据集设置SRD阈值提取局 部上下文特征(4)使用多头注意力机制对局部、 全局上下文特征进行交互学习(5)利用Softmax 函数对情绪 极性进行预测, 得到对应方面词的情 感类别的概率分布。 该方法主要应用于文本情感 分析应用。 权利要求书1页 说明书6页 附图2页 CN 115169429 A 2022.10.11 CN 115169429 A 1.一种多模型动态 协同的语义匹配方法, 其特 征在于包括以下步骤: (1)定义元模型以及域模型: 根据模型规模及处理任务, 将模型定义为唯一的元模型以 及多个域模型, 其中域模型 可动态添加配置; (2)多模型预训练: 针对不同任务分别进行词向量的训练, 元模型利用通用领域数据集 进行预训练, 得到通用词向量, 域模型利用某一特定数据集进行预训练, 得到该领域词向 量; (3)计算各模型文本相似度: 元模型和域模型通过匹配金字塔模型分别得到元模型的 匹配相似度以及各域模型的匹配相似度; (4)设定协同规则, 计算文本相似度: 通过设定规则将元模型与域模型的匹配相似度结 合, 计算文本相似度。权 利 要 求 书 1/1 页 2 CN 115169429 A 2一种轻量化方 面级文本情 感分析方 法 技术领域 [0001]本发明属于计算机自然语言处理领域, 具体涉及 一种轻量化方面级文本情感分析 方法。 背景技术 [0002]在大数据时代, 互联网中交互的数字信息在指数级的不断产生, 其中用户评论占 据了相当的比重。 然而, 通过人工手段从规模庞大 的用户评论数据中分析用户信息的过程 耗时耗力, 通过计算机 批量化提取并加以分析 逐渐成为信息分析手段的主流。 [0003]情感分析通过对用户评论中的情感信息进行分析提取, 可以获取到用户在评论信 息中所表达出 的观点、 情绪和态度。 情感分析根据其对文本的研究粒度可以分为篇章级情 感分类、 句子级情感分类和方面级情感分类三种, 其中方面级情感分析(Aspect ‑based  sentiment  classification, ABSA)由于其文本粒度小, 在一句话中能够更准确的判断在不 同方面的情感极性, 成为了情感分析领域中一个重要研究方向[1],例如: 在句子"While   the food is so good and so popular that waiting can really be a nightmare." 中,"food"的情感是积极的, "waiting"的情感是消极的。 由于这两个方面项表达了相反的 情感, 仅仅分配一个句 子级别的情感极性是不合适的, 此时对于该句 子整体的分析不能精 确提取用户对于产品各方面、 属性的情感信息, 故一种细粒度的情感分析, 即方面级情感分 析需要在此问题上被采用。 该方法可用于完成细粒度情感分析任务, 即挖掘 评论文本的不 同方面情感信息 。 [0004]方面级情感分析模型的起始层是词嵌入层, 该层的设置目的是将输入的每个词映 射为低维向量。 根据下游任务的不同, 选择适当的词嵌入工具十分重要。 主流的词嵌入 Word2vec模型分为skip ‑gram和词袋(Continuous  Bag‑of‑Words Model, CBOW)两种模型。 此模型构成的词向量可表达不同词之间的相似度, 但未融合整体上下文语义。 预训练模型 通过自监督学习从大规模数据中获得与具体任务无关的预训练模型。 更好体现某一个词在 一个特定上下文中的语义表征。 从大规模语料训练得到的Glove预训练语料库, 可根据词 与 词之间的共现信息构建向量。 然而在实际应用中, 由Glove产生的词向量未能有效结合上下 文信息。 之后的Elmo模型和BERT模型能够在词嵌入过程中融合上下文信息, 有效地解决一 词多义问题。 Hoang等和Gao等将BERT分类模型应用于方面级别情感分析任务中, 得到的分 类效果高于大部 分由其它词嵌入工具构建的模型。 说明BERT模型能够高效的获取上下文信 息, 由该模型生成的词嵌入表示可有效解决一词多义的问题。 Song等人基于BERT提出了 BERT‑SPC, 该模型通过将方面附加到上下文, 将上下文和方面作为两个段来准备输入序列。 Li等人引入了一种名为GBCN的新方法, 嵌入了具有 上下文感知方面的门控机制来增强和控 制基于方面的情绪分析的BERT表示。 [0005]长短期记忆网络(Long  Short Term Memory,LSTM)非常适合处理序列化数据, 但 是直接使用LSTM会使方面词被忽略, 最 终得到的是句子的整体情感。 之后, 注 意力机制被引 入这项任务。 Wang等人提出了AT ‑LSTM, 对上下文编码, 输入到LSTM中提取语义信息, 再用注说 明 书 1/6 页 3 CN 115169429 A 3

.PDF文档 专利 一种轻量化方面级文本情感分析方法

文档预览
中文文档 10 页 50 下载 1000 浏览 0 评论 309 收藏 3.0分
温馨提示:本文档共10页,可预览 3 页,如浏览全部内容或当前文档出现乱码,可开通会员下载原始文档
专利 一种轻量化方面级文本情感分析方法 第 1 页 专利 一种轻量化方面级文本情感分析方法 第 2 页 专利 一种轻量化方面级文本情感分析方法 第 3 页
下载文档到电脑,方便使用
本文档由 人生无常 于 2024-03-18 17:47:36上传分享
站内资源均来自网友分享或网络收集整理,若无意中侵犯到您的权利,敬请联系我们微信(点击查看客服),我们将及时删除相关资源。