国家标准网
文库搜索
切换导航
首页
频道
仅15元无限下载
联系我们
首页
仅15元无限下载
联系我们
批量下载
(19)国家知识产权局 (12)发明 专利申请 (10)申请公布号 (43)申请公布日 (21)申请 号 202210441429.9 (22)申请日 2022.04.25 (71)申请人 桂林电子科技大 学 地址 541004 广西壮 族自治区桂林市七 星 区金鸡路1号 (72)发明人 单禹辰 张红梅 蔡晓东 (74)专利代理 机构 北京轻创知识产权代理有限 公司 11212 专利代理师 冯瑛琪 (51)Int.Cl. G06F 16/35(2019.01) G06F 40/30(2020.01) G06F 40/289(2020.01) G06F 40/242(2020.01) G06N 3/04(2006.01)G06N 3/08(2006.01) (54)发明名称 一种文本分类方法、 装置以及存 储介质 (57)摘要 本发明提供一种文本分类方法、 装置以及存 储介质, 属于文本分类领域, 方法包括: S1: 对多 个原始文本数据进行划分得到训练集和测试集; S2: 分别对训练集和测试集进行数据预处理得到 多个单词训练矩阵以及多个单词测试矩阵; S3: 分别对各个单词训练矩 阵进行向量化处理得到 词向量矩阵; S4: 构建训练模型, 根据多个词向量 矩阵对训练模型进行训练得到待测试模型; S5: 根据多个单词测试矩 阵对待测试模型进行测试 得到分类模型; S6: 导入待分类文本 数据, 通过分 类模型对待分类文本数据进行分类得到分类结 果。 本发明能够突出文本中的关键信息, 同时增 强文本上下文语义信息, 更准确的表示文本语 义, 从而提高了文本分类的准确度。 权利要求书4页 说明书10页 附图2页 CN 114860930 A 2022.08.05 CN 114860930 A 1.一种文本分类方法, 其特 征在于, 包括如下步骤: S1: 导入多个原始文本数据, 并对多个所述原始文本数据进行划分, 得到训练集和测试 集; S2: 分别对所述训练集和所述测试集进行数据预处理, 得到与所述训练集对应的多个 单词训练矩阵以及与所述测试集对应的多个单词测试矩阵; S3: 分别对各个所述单词训练矩阵进行向量化处理, 得到与各个所述单词训练矩阵对 应的词向量矩阵; S4: 构建训练模型, 根据多个所述词向量矩阵对所述训练模型进行训练, 得到待测试模 型; S5: 根据多个所述单词测试矩阵对所述待测试模型进行测试, 得到分类模型; S6: 导入待分类文本数据, 通过所述分类模型对所述待分类文本数据进行分类, 得到分 类结果。 2.根据权利要求1所述的文本分类方法, 其特征在于, 所述训练集包括多个原始文本训 练数据, 所述测试集包括多个原 始文本测试 数据, 所述 步骤S2的过程包括: 利用python工具分别对各个所述原始文本训练数据以及各个所述原始文本测试数据 进行分词处理, 得到与各个所述原始文本训练数据对应的多个待筛选单词训练数据以及与 各个所述原 始文本测试 数据对应的多个待筛 选单词测试 数据; 利用所述python工具分别对各个所述待筛选单词训练数据以及各个所述待筛选单词 测试数据进行停用词的筛选, 得到与各个所述原始文本训练数据对应的多个单词训练数据 以及与各个所述原始文本测试数据对应的多个单词测试数据, 并根据多个所述单词训练数 据得到与各个所述原始文本训练数据对应的单词训练矩阵, 并根据多个所述单词测试数据 得到与各个所述原 始文本测试 数据对应的单词测试矩阵。 3.根据权利要求1所述的文本分类方法, 其特 征在于, 所述S3的过程包括: 通过预设语言模型分别对各个所述单词训练矩阵进行向量化处理, 得到与 各个所述单 词训练矩阵对应的词向量矩阵。 4.根据权利要求2所述的文本分类方法, 其特征在于, 所述训练模型包括卷积神经网络 和双向循环神经网络, 所述 步骤S4的过程包括: 通过所述卷积神经网络分别对各个所述词向量矩阵进行特征提取分析, 得到与各个所 述词向量矩阵对应的局部特 征向量; 通过所述双向循环神经网络分别对各个所述词向量矩阵进行目标隐藏层状态向量的 计算, 得到与各个所述词向量矩阵对应的多个目标隐藏层状态向量; 通过第一式分别对与各个所述词向量矩阵对应的多个目标隐藏层状态向量进行上下 文语义向量的计算, 得到与各个所述词向量矩阵对应的上 下文语义向量, 所述第一式为: 权 利 要 求 书 1/4 页 2 CN 114860930 A 2其中, 其中, ut=tanh(Wwht+bw), 其中, Fglobal为上下文语义向量, at为第t时刻单词归一化权重, ht为第t时刻的目标隐藏 层状态向量, uw为词级上下文向量, ut为第t时刻单词词向量, 为ut的转置, Ww为可训练参 数, bw为偏置项; 分别对各个所述上下文语义向量进行句子语义特征的计算, 得到与 各个所述词向量矩 阵对应的句子语义特 征向量; 通过第二式分别对各个所述局部特征向量以及与各个所述词向量矩阵对应的句子语 义特征向量进行拼接, 得到与各个所述词向量矩阵对应的全局语义特征向量, 所述第二式 为: 其中, Fglobal为句子语义特 征向量, Flocal为局部特 征向量, F'为全局语义特 征向量; 通过第三式分别对各个所述全局语义特征向量进行预测, 得到与各个所述词向量矩阵 对应的类别预测概 率, 所述第三式为; p=softmax(WgF'+bg), 其中, p为类别预测概 率, Wg为可训练权 重, F'为全局语义特 征向量, bg为偏置项; 导入多个与 所述原始文本训练数据对应的真实标签, 对所有的类别预测概率和所有的 真实标签进行损失值分析, 得到待测试模型。 5.根据权利要求4所述的文本分类方法, 其特征在于, 所述卷积神经网络包括第 一卷积 核、 第二卷积核、 第三卷积核和第四卷积核, 所述通过所述卷积神经网络分别对各个所述词向量矩阵进行特征提取分析, 得到与 各 个所述词向量矩阵对应的局部特 征向量的过程包括: 通过所述第 一卷积核分别对各个所述词向量矩阵进行第 一次特征提取, 得到与各个所 述词向量矩阵对应的第一特 征图; 通过所述第 二卷积核分别对各个所述词向量矩阵进行第 二次特征提取, 得到与各个所 述词向量矩阵对应的第二特 征图; 通过所述第 三卷积核分别对各个所述词向量矩阵进行第 三次特征提取, 得到与各个所 述词向量矩阵对应的第三特 征图; 通过所述第四卷积核分别对各个所述词向量矩阵进行第四次特征提取, 得到与各个所 述词向量矩阵对应的第四特 征图; 分别对各个所述第 一特征图进行第 一特征图的特征筛选, 得到与各个所述词向量矩阵 对应的筛 选后第一特 征图; 分别对各个所述第 二特征图进行第 二特征图的特征筛选, 得到与各个所述词向量矩阵 对应的筛 选后第二特 征图; 分别对各个所述第 三特征图进行第 三特征图的特征筛选, 得到与各个所述词向量矩阵权 利 要 求 书 2/4 页 3 CN 114860930 A 3
专利 一种文本分类方法、装置以及存储介质
文档预览
中文文档
17 页
50 下载
1000 浏览
0 评论
309 收藏
3.0分
赞助2.5元下载(无需注册)
温馨提示:本文档共17页,可预览 3 页,如浏览全部内容或当前文档出现乱码,可开通会员下载原始文档
下载文档到电脑,方便使用
赞助2.5元下载
本文档由 人生无常 于
2024-03-18 17:46:29
上传分享
举报
下载
原文档
(548.5 KB)
分享
友情链接
DB31-T 1341-2021 商务办公建筑格力用能指南 上海市.pdf
奇安信 2022中国工业数据勒索形势分析报告.pdf
T-FJLY 001—2022 自然教育基地质量评定.pdf
GB-T 10001.8-2023 公共信息图形符号 第8部分:行为指示符号.pdf
GB-T 33561-2017 信息安全技术 安全漏洞分类.pdf
GB-T 1871.5-2022 磷矿石和磷精矿中氧化镁含量的测定 火焰原子吸收光谱法、容量法和电感耦合等离子体发射光谱法.pdf
GB-T 32386-2015 电子工业用气体 六氟化钨.pdf
GB-T 18725-2008 制造业信息化 技术术语.pdf
GB-T 41785-2022 磁光电混合存储系统通用规范.pdf
YD-T 2699-2014 电信网和互联网安全防护基线配置要求及检测要求-安全设备.pdf
DB44-T 1944-2016 碳排放管理体系 要求及使用指南 广东省.pdf
T-WAPIA 045.3—2021 信息技术 系统间远程通信和信息交换 原子密钥建立与实体鉴别 第3部分:采用证书的原子密钥建立与实体鉴别.pdf
T-CHIA 14.4—2018 医疗健康物联网 感知设备通信数据命名表 第4部分:血氧仪.pdf
JR-T0213-2021 金融网络安全 Web 应用服务安全测试通用 规范.pdf
GB-T 13298-2015 金属显微组织检验方法.pdf
数据安全解决方案.pdf
OpenGroup 在TOGAF企业架构中集成风险和安全 .pdf
GB-T 36989-2018 用超声流量计测量液态烃流量.pdf
T-ZGKSL 010—2023 重组胶原蛋白透皮吸收测定方法.pdf
ISO 17987-1-2016.pdf
1
/
3
17
评价文档
赞助2.5元 点击下载(548.5 KB)
回到顶部
×
微信扫码支付
2.5
元 自动下载
点击进入官方售后微信群
支付 完成后 如未跳转 点击这里下载
站内资源均来自网友分享或网络收集整理,若无意中侵犯到您的权利,敬请联系我们
微信(点击查看客服)
,我们将及时删除相关资源。