(19)国家知识产权局
(12)发明 专利申请
(10)申请公布号
(43)申请公布日
(21)申请 号 202210390699.1
(22)申请日 2022.04.14
(71)申请人 西安邮电大 学
地址 710121 陕西省西安市长安区西长安
街618号
(72)发明人 曹小鹏 梁浩 王凯丽
(51)Int.Cl.
G06K 9/62(2022.01)
G06F 40/284(2020.01)
G06F 40/126(2020.01)
G06F 40/30(2020.01)
G06N 3/04(2006.01)
G06N 3/08(2006.01)
(54)发明名称
一种轻量 化方面级 文本情感分析方法
(57)摘要
本发明提出一种轻量化方面级文本情感分
析方法, 解决基于DNN的方法在基于全局上下文
特征识别目标方面的情绪极性之前, 只专注于分
析全局上下文与情绪极性的相关性的问题, 发明
的技术方案主要包括以下步骤: (1)将经过数据
清洗处理的数据集输入Di stilroberta预训练模
型(2)将向量化表示的词向量输入SRU++特征提
取网络(3)根据不同数据集设置SRD阈值提取局
部上下文特征(4)使用多头注意力机制对局部、
全局上下文特征进行交互学习(5)利用Softmax
函数对情绪 极性进行预测, 得到对应方面词的情
感类别的概率分布。 该方法主要应用于文本情感
分析应用。
权利要求书1页 说明书6页 附图2页
CN 115169429 A
2022.10.11
CN 115169429 A
1.一种多模型动态 协同的语义匹配方法, 其特 征在于包括以下步骤:
(1)定义元模型以及域模型: 根据模型规模及处理任务, 将模型定义为唯一的元模型以
及多个域模型, 其中域模型 可动态添加配置;
(2)多模型预训练: 针对不同任务分别进行词向量的训练, 元模型利用通用领域数据集
进行预训练, 得到通用词向量, 域模型利用某一特定数据集进行预训练, 得到该领域词向
量;
(3)计算各模型文本相似度: 元模型和域模型通过匹配金字塔模型分别得到元模型的
匹配相似度以及各域模型的匹配相似度;
(4)设定协同规则, 计算文本相似度: 通过设定规则将元模型与域模型的匹配相似度结
合, 计算文本相似度。权 利 要 求 书 1/1 页
2
CN 115169429 A
2一种轻量化方 面级文本情 感分析方 法
技术领域
[0001]本发明属于计算机自然语言处理领域, 具体涉及 一种轻量化方面级文本情感分析
方法。
背景技术
[0002]在大数据时代, 互联网中交互的数字信息在指数级的不断产生, 其中用户评论占
据了相当的比重。 然而, 通过人工手段从规模庞大 的用户评论数据中分析用户信息的过程
耗时耗力, 通过计算机 批量化提取并加以分析 逐渐成为信息分析手段的主流。
[0003]情感分析通过对用户评论中的情感信息进行分析提取, 可以获取到用户在评论信
息中所表达出 的观点、 情绪和态度。 情感分析根据其对文本的研究粒度可以分为篇章级情
感分类、 句子级情感分类和方面级情感分类三种, 其中方面级情感分析(Aspect ‑based
sentiment classification, ABSA)由于其文本粒度小, 在一句话中能够更准确的判断在不
同方面的情感极性, 成为了情感分析领域中一个重要研究方向[1],例如: 在句子"While
the food is so good and so popular that waiting can really be a nightmare."
中,"food"的情感是积极的, "waiting"的情感是消极的。 由于这两个方面项表达了相反的
情感, 仅仅分配一个句 子级别的情感极性是不合适的, 此时对于该句 子整体的分析不能精
确提取用户对于产品各方面、 属性的情感信息, 故一种细粒度的情感分析, 即方面级情感分
析需要在此问题上被采用。 该方法可用于完成细粒度情感分析任务, 即挖掘 评论文本的不
同方面情感信息 。
[0004]方面级情感分析模型的起始层是词嵌入层, 该层的设置目的是将输入的每个词映
射为低维向量。 根据下游任务的不同, 选择适当的词嵌入工具十分重要。 主流的词嵌入
Word2vec模型分为skip ‑gram和词袋(Continuous Bag‑of‑Words Model, CBOW)两种模型。
此模型构成的词向量可表达不同词之间的相似度, 但未融合整体上下文语义。 预训练模型
通过自监督学习从大规模数据中获得与具体任务无关的预训练模型。 更好体现某一个词在
一个特定上下文中的语义表征。 从大规模语料训练得到的Glove预训练语料库, 可根据词 与
词之间的共现信息构建向量。 然而在实际应用中, 由Glove产生的词向量未能有效结合上下
文信息。 之后的Elmo模型和BERT模型能够在词嵌入过程中融合上下文信息, 有效地解决一
词多义问题。 Hoang等和Gao等将BERT分类模型应用于方面级别情感分析任务中, 得到的分
类效果高于大部 分由其它词嵌入工具构建的模型。 说明BERT模型能够高效的获取上下文信
息, 由该模型生成的词嵌入表示可有效解决一词多义的问题。 Song等人基于BERT提出了
BERT‑SPC, 该模型通过将方面附加到上下文, 将上下文和方面作为两个段来准备输入序列。
Li等人引入了一种名为GBCN的新方法, 嵌入了具有 上下文感知方面的门控机制来增强和控
制基于方面的情绪分析的BERT表示。
[0005]长短期记忆网络(Long Short Term Memory,LSTM)非常适合处理序列化数据, 但
是直接使用LSTM会使方面词被忽略, 最 终得到的是句子的整体情感。 之后, 注 意力机制被引
入这项任务。 Wang等人提出了AT ‑LSTM, 对上下文编码, 输入到LSTM中提取语义信息, 再用注说 明 书 1/6 页
3
CN 115169429 A
3
专利 一种轻量化方面级文本情感分析方法
文档预览
中文文档
10 页
50 下载
1000 浏览
0 评论
309 收藏
3.0分
温馨提示:本文档共10页,可预览 3 页,如浏览全部内容或当前文档出现乱码,可开通会员下载原始文档
本文档由 人生无常 于 2024-03-18 17:47:36上传分享