(19)国家知识产权局 (12)发明 专利申请 (10)申请公布号 (43)申请公布日 (21)申请 号 202210281501.6 (22)申请日 2022.03.21 (71)申请人 河海大学 地址 211100 江苏省南京市江宁开发区佛 城西路8号 (72)发明人 戚荣志 赵小涵 李水艳 毛莺池  黄倩 高逸飞 陈子琦  (74)专利代理 机构 南京乐羽知行专利代理事务 所(普通合伙) 32326 专利代理师 李玉平 (51)Int.Cl. G06F 40/295(2020.01) G06F 40/30(2020.01) G06F 40/211(2020.01) G06F 40/289(2020.01)G06F 16/35(2019.01) G06N 3/04(2006.01) G06N 3/08(2006.01) (54)发明名称 基于门控机制和图注意力网络的中文实体 关系抽取方法 (57)摘要 本发明公开了一种基于门控机制和图注意 力网络的中文实体关系抽取方法, 首先, 使用中 文BERT预训练模型将文本转换为机器可以识别 的向量形式; 其次, 将实体嵌入拼接到每个词嵌 入后面, 采用一种全局信息门控机制, 计算门控 向量, 实现词嵌入的实体语义强化; 然后, 对文本 进行依存句法分析, 获得依存句法树, 构造出邻 接矩阵、 依赖类型矩阵和依赖方向矩阵, 使用掩 码自注意力求得注意力权重矩阵, 进而在图注意 力网络中对文本进行特征提取; 最后, 从图注意 力网络的输出中, 获取两个实体和句子的表征向 量, 经过多层感知机将该向量转换到分类空间, 输入至分类 器中完成关系分类 。 权利要求书4页 说明书8页 附图2页 CN 114722820 A 2022.07.08 CN 114722820 A 1.一种基于门控机制和图注意力网络的中文实体关系抽取方法, 其特征在于, 包含以 下步骤: 步骤1)使用中文BERT预训练模型将文本转换为机器可以识别的向量形式; 步骤2)将实体嵌入拼接到每个词嵌入后面, 采用一种全局信息门控机制, 计算门控向 量, 实现词嵌入的实体 语义强化; 步骤3)对文本进行依存句法分析, 获得依存句法树, 构造出邻接矩阵、 依赖类型矩阵和 依赖方向矩阵, 使用掩码自注意力求得注意力权重矩阵, 进而在图注意力网络中对文本句 子进行特征提取; 步骤4)从图注意力网络的输出中, 获取两个实体和句子的表征向量, 经过多层感知机 将该表征向量 转换到分类空间, 输入至分类 器中完成关系分类。 2.根据权利要求1所述的基于门控机制和图注意力网络的中文实体关系抽取方法, 其 特征在于, 所述步骤1)的使用中文BERT预训练模型将文本转换为机器可以识别的向量形 式, 即文本 到词向量; 包 含以下过程: 1‑1)将句子s分割为一个字序列, 然后调用BERT预训练模型将字序列向量化, 形成字向 量序列{c1,c2,…}; 1‑2)采用现成的自然语言处 理工具将句子进行分词得到词序列; 1‑3)利用第一步的字向量序列{c1,c2,…}, 将词序列初始化为词向量序列{v1,v2,…}, 规则为, 词向量是其所包 含字的向量的加 和求平均。 3.根据权利要求1所述的基于门控机制和图注意力网络的中文实体关系抽取方法, 其 特征在于, 所述步骤2)中词嵌入的实体语义 强化指的是对于BERT模型转换得到的词嵌入进 行实体语义增强, 具体包 含以下步骤: 2‑1)将头实体和尾实体的嵌入表示拼接, 然后使用一个前馈网络将两个实体的语义信 息进行融合, 其过程公式化 为: ve=tanh(We[vh,vt]+be) 其中, vh和vt分别对应头尾实体的词嵌入, 是可学习的参数矩阵, 用于拼 接实体嵌入的线性转换, 是一个偏置项, t anh为双曲正切函数, ve是融合了头尾 实体信息的实体嵌入; 2‑2)将该融合后的实体嵌入与句子 中每个词语的词向量进行拼接, 初步得到实体嵌入 增强的候选词向量; 同时, 将这些候选词向量加和求平均, 获得融合全局信息和实体嵌入的 监督向量 以上过程可以表示 为: 其中, 表示第i个词语的候选词向量, n 为句子s中词语的数量。 2‑3)以监督向量与候选词向量 为输入, 输出每 个候选词向量所对应的门控向量: 权 利 要 求 书 1/4 页 2 CN 114722820 A 2其中, 是一个需要训练的参数矩阵, 是偏 置项, 运算符⊙表示将两端向量按元 素相乘, sigmo id函数输出 范围为(0,1); 2‑4)计算第i个词语在经过实体嵌入增强后的词嵌入表示 将该词语的候选词向 量与对应的门控向量按元 素相乘, 其计算过程如下式: 4.根据权利要求1所述的基于门控机制和图注意力网络的中文实体关系抽取方法, 其 特征在于, 所述步骤3中根据句子的依存句法树构 造出邻接矩阵、 依赖类型矩阵和依赖方向 矩阵, 采用掩码自注意力机制计算注意力转移权重, 进而在图注意力网络中对文本进行特 征提取, 具体步骤, 包括: 3‑1)根据句子的依存句法树构造邻接矩阵A, 设依存句 法树上有n个结点, 那么可以使 用一个n×n的邻接矩阵A来表示该依存句法树; 当结点i和结点j之间存在依赖边时, A中元 素ai,j和aj,i为1, 否则为0, 此时A是一个无向图; 特别 地, 依存树转换的邻接矩阵中, 每个结 点都有一个自旋边, 即ai,i=1; 根据依存句法树的提供的依赖类型和依赖方向信息, 构造依赖类型矩阵T和依赖方向 矩阵D的构 造方式; 依赖类型矩阵T大小为n ×n, 若结点i和结点j的依赖类型为nsubj, 则T中 元素ti,j的值为type_to_id_mapping(n subj), type_to_id_mapping表示依 赖类型到数值的 映射; 依赖方向矩阵D大小同样为n ×n, 若存在依赖边i →j, 则元素di,j=1表示该依赖边是 正向的, 反 之dj,i=‑1表示依赖边是反向的; 3‑2)图注意力网络采用了一种掩码自注意力 机制, 在每一层计算一个全新的信息传递 的注意力权重矩阵, 该权重矩阵不仅完全保留了原始依存句法树的结构信息, 而且赋予了 依赖边不同的权重。 实体嵌入增 强后的词向量序列为 同时是图注意力网络 的初始输入 符号 表示第i个词语在l层的隐层向量。 在一个L层的图注意 力网络中, 第l层会使用掩码自注意力计算得到一个n ×n邻接矩阵P(l), 表示结点i和结 点j之间依赖边的权 重, 其计算过程如下式: 其中, ai,j表示原始的邻接矩阵中的权重, 它只有0, 1两种取值, 当ai,j=0时, 对应自注 意力计算得到的 当ai,j=1时, 表示依赖类型ti,j所对应依赖类 型的嵌入向量, fun( ·)是一个注意力函数, 用于计算两个节点间依赖边的重要程度值, 即 ei,j, 该注意力函数的具体细节如下式所示: 其中, LeakyRelu是激活函数, [ ·]表示向量 的拼接操作, f(di,j)表示一个与依赖边方权 利 要 求 书 2/4 页 3 CN 114722820 A 3

.PDF文档 专利 基于门控机制和图注意力网络的中文实体关系抽取方法

文档预览
中文文档 15 页 50 下载 1000 浏览 0 评论 309 收藏 3.0分
温馨提示:本文档共15页,可预览 3 页,如浏览全部内容或当前文档出现乱码,可开通会员下载原始文档
专利 基于门控机制和图注意力网络的中文实体关系抽取方法 第 1 页 专利 基于门控机制和图注意力网络的中文实体关系抽取方法 第 2 页 专利 基于门控机制和图注意力网络的中文实体关系抽取方法 第 3 页
下载文档到电脑,方便使用
本文档由 人生无常 于 2024-03-18 17:50:02上传分享
站内资源均来自网友分享或网络收集整理,若无意中侵犯到您的权利,敬请联系我们微信(点击查看客服),我们将及时删除相关资源。