国家标准网
文库搜索
切换导航
首页
频道
仅15元无限下载
联系我们
首页
仅15元无限下载
联系我们
批量下载
(19)国家知识产权局 (12)发明 专利申请 (10)申请公布号 (43)申请公布日 (21)申请 号 202210203781.9 (22)申请日 2022.03.02 (71)申请人 湖北大学 地址 430062 湖北省武汉市武昌区友谊大 道368号 (72)发明人 游兰 彭庆喜 金红 (74)专利代理 机构 北京金智普华知识产权代理 有限公司 1 1401 专利代理师 张晓博 (51)Int.Cl. G06F 16/33(2019.01) G06F 16/35(2019.01) G06F 40/30(2020.01) G06K 9/62(2022.01) G06N 3/04(2006.01)G06N 3/08(2006.01) (54)发明名称 面向公共安全事件分析的深度语义识别模 型及其构建方法 (57)摘要 本发明属于自然语言处理情感分析技术领 域, 公开了一种面向公共安全事件分析的深度语 义识别模型及其构建方法, 通过BERT预训练模型 获取评论文本的上下文语义特征表 示, 再结合双 向GRU提取深层非线性特征向量, 实现单模型下 的最优效果; 基于BERT系列预训练模型训练出表 现优异且具有差异化的多个情感分类器; 利用数 据扰动和投票策略的集成学习方法, 实现各模型 深层特征的充分融合。 本发明充分利用模型间的 差异性, 采用集成学习和投票策略融合多个模 型, 训练稳定且各方面表现均衡的情感分类模 型; 实验结果显示, BERT ‑BiGRU模型相较于其他 传统模型在两个公开数据集上具有更优的情感 识别效果。 权利要求书3页 说明书12页 附图3页 CN 114564565 A 2022.05.31 CN 114564565 A 1.一种面向公共安全事件分析的深度语义识别模型的构建方法, 其特征在于, 所述面 向公共安全事件分析的深度语义识别模 型的构建方法包括: 通过BERT 预训练模 型获取评论 文本的上下文语义特征表示, 再结合双向GRU提取深层非线性特征向量, 进行单模型优化; 基于BERT系列预训练模 型训练出表现优异且 具有差异 化的多个情感分类器; 利用数据扰动 和投票策略的集成学习方法进行 各模型深层特 征的融合。 2.如权利要求1所述的面向公共安全事件分析的深度语义识别模型的构建方法, 其特 征在于, 所述 面向公共安全 事件分析的深度语义识别模型的构建方法包括以下步骤: 步骤一, 对原 始数据集进行 预处理, 去除噪声数据; 步骤二, 构 建单个情感识别 模型, 将BERT预训练语言模型与BiGRU拼接得到文本分类模 型, 利用文本分类模型 得到分类结果; 步骤三, 构建集成情感识别模型, 分别通过数据扰动的方式和基于BERT系列预训练模 型得到多个情感基分类 器, 将步骤二的分类结果与集成模块输出的结果进行投票决策。 3.如权利要求2所述的面向公共安全事件分析的深度语义识别模型的构建方法, 其特 征在于, 所述步骤二中的BERT模 型采用Transformer的编码器作为主体模 型结构, 基于注意 力机制挖掘词语之间的关系, 用于并行训练并考虑全局信息; 在文本分类任务中, 文本通常由词向量表示, BERT模型在使用词向量和段向量的基础 上, 加入位置向量, 通过位置嵌入方式保存词 序信息, 从而对不同位置的字或词附加不同的 向量以示区分: 其中, pos表示位置索引, dmodel为词向量维度, PE表示在pos位置处对应的位置编码, 由 正弦sin和余弦cos函数生成, 再与对应位置词向量相加; 句子的开头使用[CLS]标记, 句子 的分隔和结尾使用[ SEP]标记; 在得到句子的输入表示后, BERT使用遮蔽语言模型MLM和下一句预测NSP联合训练; MLM 是指将文本中的词随机使用[ MASK]进行遮蔽, 让模 型进行预测; NSP是指从语料库中随机选 择两句话 拼接, 预测是否来自同一文本; BERT模型的核心是采用Transformer模型的编码器, 多头注意力是Trans former重要组 成部分, attention机制将目标字Query和其上下文字Key的相似性作为权重, 将上下字的 Value融入到目标字的Query中, 得到目标字的增强语义向量表示; 通过多次线性变换对Q (Query), K(Key), V(Value)投影, 最后将不同的attention结果进行拼接组成多头注意力, 使模型在不同的表示子空间学习到相关信息, 从而获得不同语义空间下词语的增强语义向 量; Transformer编码器加入残差和标准化模块, 接在Encoder端和Decoder端每个子模块权 利 要 求 书 1/3 页 2 CN 114564565 A 2的后面; 残差用于解决多层网络训练的问题, 让网络只关注当前差异的部 分, 用于防止网络 退化, 加速收敛; 标准化指Layer Normalization, 用于对每一层的激活值进行归一化; α, β 为训练参数, μ和σ 表 示偏差和方差; 经过前馈神经网络, 进 行线性转换和ReLu激活函数得到 编码器的输出, 如公式所示: FNN=max(0, xW1+b1)W2b2。 4.如权利要求3所述的面向公共安全事件分析的深度语义识别模型的构建方法, 其特 征在于, 将经过BERT模型得到的语义表示作为双向GRU模型的输入; 在双向GRU中, 每个GRU 单元包含两种门结构, 更新门、 重置门, 分别表示为rt, zt, 用于保持和更新状态信息并进行 传递; 更新门的作用类似LSTM的遗忘门和输入门, 决定上一时刻的状态信息被带入当前状 态的程度; 重置门控制上一时刻的状态信息被忽略的程度, 重置门的值越小代表忽略越多; 通过双向GRU模型 处理时序性问题, 利用整个文本序列的信息, 包括各个词之间的相互关系 信息, 并将所述信息用于对每 个词的处 理。 5.如权利要求3所述的面向公共安全事件分析的深度语义识别模型的构建方法, 其特 征在于, 将BERT的输出通过正向 获取到所有过去时间序列中的 完整上下文信息, 再通过反向 获取所有未来时间序列的完整上 下文, 计算公式如下: 其中, w为连接两层的权重, b为偏置向量, f为激活函数, 和 分别为正向GRU和负向 GRU输出; 双向GRU在正负向的隐藏层 上对输入表示dn进行计算, 得到dn隐藏状态ht, 将正负GRU采 用拼接策略: 得到双向GRU的隐藏状态, 计算公式如下: H={h1, h1, ..., hd}; 使用全局平均池化来代替全连接层, 全局平均池化层 没有参数, 整合全局信息, 将输出 的多维度特征, 经过全局平均池化得到一 维的特征向量, 送入softmax函数得到评论文本的 情感类别, 如公式所示: TEXTC=softmax(Wt·H+bt); 其中, Wt表示全局平均池化层的权重参数, bt表示偏置值, 最后得到BERT ‑BiGRU模型的 输出TEXT_C 。权 利 要 求 书 2/3 页 3 CN 114564565 A 3
专利 面向公共安全事件分析的深度语义识别模型及其构建方法
文档预览
中文文档
19 页
50 下载
1000 浏览
0 评论
309 收藏
3.0分
赞助2.5元下载(无需注册)
温馨提示:本文档共19页,可预览 3 页,如浏览全部内容或当前文档出现乱码,可开通会员下载原始文档
下载文档到电脑,方便使用
赞助2.5元下载
本文档由 人生无常 于
2024-03-18 17:52:47
上传分享
举报
下载
原文档
(957.7 KB)
分享
友情链接
GB-T 41479-2022 信息安全技术 网络数据处理安全要求.pdf
清华大学 AIGC发展研究1.0版0.92.pdf
NB-T 10882—2021 梯级水库群安全风险防控导则.pdf
GB-T 24822-2009 家用和类似用途电器维修故障编码规范.pdf
T-CITS 0012—2023 牛乳基婴幼儿配方乳粉及牛乳中A1和A2 β-酪蛋白的测定 液相色谱-串联质谱法.pdf
T-ZAQ 10105—2022 耐久型不干胶标签.pdf
GB-T 11748-2023 激光治疗设备 二氧化碳激光治疗机.pdf
GB-T 17245-2004 成年人人体惯性参数.pdf
GB-T 3409.2-2016 大坝监测仪器 钢筋计 第2部分:振弦式钢筋计.pdf
GB-T 19710.1-2023 地理信息 元数据 第1部分基础.pdf
DB43-T 2746-2023 特种设备使用单位安全风险评估和管控导则 湖南省.pdf
T-CHEAA 0018—2021 家用和类似用途洗地机.pdf
GB-T 38699-2020 村级公共服务中心建设与管理规范.pdf
DB36-T 1584-2022 电子政务外网企事业单位接入技术规范 江西省.pdf
GB-T 40731-2021 精密减速器回差测试与评价方法.pdf
GB-T 43044-2023 数码照相机 规格指南.pdf
GB-T 7660.3-2013 反射棱镜 第3部分:光学平行度及其检验方法.pdf
DB52-T 1041-2015 贵州省红粘土和高液限土路基设计与施工技术规范 贵州省.pdf
DB36-T 1234-2020 智慧景区建设指南 江西省.pdf
GB-T 33133.3-2021 信息安全技术 祖冲之序列密码算法 第3部分:完整性算法.pdf
1
/
3
19
评价文档
赞助2.5元 点击下载(957.7 KB)
回到顶部
×
微信扫码支付
2.5
元 自动下载
点击进入官方售后微信群
支付 完成后 如未跳转 点击这里下载
站内资源均来自网友分享或网络收集整理,若无意中侵犯到您的权利,敬请联系我们
微信(点击查看客服)
,我们将及时删除相关资源。