(19)国家知识产权局
(12)发明 专利
(10)授权公告 号
(45)授权公告日
(21)申请 号 202110582508.7
(22)申请日 2021.05.26
(65)同一申请的已公布的文献号
申请公布号 CN 113326656 A
(43)申请公布日 2021.08.31
(73)专利权人 东南大学
地址 211189 江苏省南京市江宁区东 南大
学路2号
(72)发明人 曹鹏 王凯 杨泰 鲍威
(74)专利代理 机构 南京瑞弘专利商标事务所
(普通合伙) 32249
专利代理师 沈廉
(51)Int.Cl.
G06F 30/27(2020.01)
G06F 30/3312(2020.01)G06N 3/04(2006.01)
(56)对比文件
CN 111324990 A,2020.0 6.23
CN 109255159 A,2019.01.2 2
王振等.基 于时域卷积与双向GRU神经网络
的时序预测模型. 《软件导刊》 .2020,(第0 3期),
陈启鹏等.基 于深度门控循环单 元神经网络
的刀具磨损状态实时监测方法. 《计算机集成制
造系统》 .2020,(第07期),
审查员 慈丽雁
(54)发明名称
一种数字集成电路众工艺角延时预测方法
(57)摘要
本发明公开了一种数字集成电路众工艺角
延时预测方法, 能够应用于众工艺角下的时序签
核问题中。 在特征工程方面, 通过膨胀卷积神经
网络(Dilated CNN)对邻近工艺角下的路径延时
关系进行抽取, 并通过双向长短期记忆模型(Bi ‑
directional Long Short‑Term Memory,BLSTM)
学习得到路径拓扑信息, 最后, 采用多门控混合
专家网络模型(Multi ‑gate Mixture ‑of‑
Experts,MMoE)输 出得到多个工艺角下路径延时
的预测结果。 与传统机器学习方法相比, 本发明
通过更为有效的特征工程处理, 能够在较低的仿
真开销情况下, 取得更高精度的预测 效果, 对于
数字集成电路的众工艺角下时序签核具有重要
意义。
权利要求书3页 说明书7页 附图3页
CN 113326656 B
2022.11.01
CN 113326656 B
1.一种数字集成电路众工艺角延时预测方法, 其特征在于: 所述众工艺角指的是对电
路进行时序分析和验证时所采用的工艺、 电压和温度工作条件的组合; 所述方法包括以下
步骤:
S1: 通过时序分析工具获取指定电路的时序报表, 从中提取路径拓扑信息, 包括门单元
种类、 门单元尺寸与对应负载电容序列, 并将此路径转化为晶体管级网表, 修改该网表中的
工艺、 电压和温度参数, 通过晶体管级仿真工具仿真得到该路径在对应工艺角下 的延时信
息;
S2: 将S1步骤中通过晶体管级仿真工具HSPICE仿真得到路径在各个工艺角下的延时信
息作为膨胀卷积神经网络Dilated CNN模型的输入, 该神经网络经过训练后能够将邻近温
度电压组合下的延时相互关联并学习延时之间关系, 从而得到更为有效的路径延时特征表
达;
S3: 将S1步骤中提取得到的路径拓扑信息, 包含门单元种类、 门单元尺寸与对应负载电
容序列, 作为双向长 短期记忆神经网络BLSTM的输入, 该神经网络经过训练后能够对路径的
拓扑信息进行建模, 建立 起路径拓扑 结构与路径延时之间的联系;
S4: 将S2步骤中膨胀卷积神经网络Dilated CNN模型的输出和S3步骤中双向长短期记
忆神经网络BLSTM的输出进行合并后作为多门控混合专家网络MMoE的输入, 该模型经过训
练后, 能够建立起高电压下路径延时信息和拓扑信息同低电压下多个温度点的路径延时之
间的关系, 实现同时对低电压下多个温度点路径延时的预测。
2.根据权利要求1所述的数字集成电路众工艺角延时预测方法, 其特征在于: 所述步骤
S1具体包括以下步骤:
S11: 通过时序分析工具对电路进行时序分析得到时序报表, 时序报表中包含有电路中
的部分路径的信息, 包括路径的延时, 路径中每一级 单元的单元类型, 单元尺 寸和对应负载
电容; 随后提取路径结构, 并抽取每条路径中的拓扑信息, 包含门单元种类、 门单元尺寸与
对应负载电容序列;
S22: 通过时序分析工具将将路径转化为晶体管级网表, 最后用晶体管级仿真工具仿真
得到路径延时信息, 修改该网表中的工艺、 电压和温度参数, 通过晶体管级仿真工具
(HSPICE)仿真得到该路径在对应工艺角下的延时信息, 提取路径延时结果用于后续步骤中
的模型训练与推理中。
3.根据权利要求1所述的数字集成电路众工艺角延时预测方法, 其特征在于: 所述步骤
S2中, 假设输入延时数据所在电压为Vi, 样本个数为Ns, 电路仿真时的温度种类数为Nf, 输入
样本维度可以表示为(Ns, Nf); 接着改变输入层(Input Layer)的维度为(Ns, Nf, 1)以满足卷
积神经网络的输入格式需要, 输入层维度中的1表示 目前的输入电路所采用的工艺是相同
的; 之后把维度变换后的输入层接入到N层 串行连接的卷积层(Conv Layer), 其中N>=2; 对
于其中第n层卷积层, Fn代表的是第n层卷积层中 的滤波器个数, 即第n层卷积层输出的最后
一维维度, Kn与Sn分别代表的是第n层卷积层中卷积核尺 寸与步长, Dn则是第n层卷积层的膨
胀系数, 第n层卷积层的输出维度中的Hn的计算公式如下:
权 利 要 求 书 1/3 页
2
CN 113326656 B
2之后, 卷积层的输出连接展开层(Fl atten Layer)作为输入, 通过将卷积层输出张量的
第二与第三个维度进行展开合并来实现数据降维; 经若干层全连接层(Dense Layer)进行
维度变换后, 输入到输 出层(Output Layer)中, 其中, 第m层全 连接层(Dense Layer)中的神
经元个数为Qm个; 最后, 输出层的输出特征即为最终的膨胀卷积神经网络抽取出的特征, 特
征数量定义为Qo, 抽取得到的最终的延时特征将与S3步骤的输出特征合 并作为S4步骤中多
门控混合专 家网络MMoE的输入。
4.根据权利要求1所述的数字集成电路众工艺角延时预测方法, 其特征在于: 所述步骤
S3中, 路径拓扑信息包含有门单元种类、 门单元尺寸与对应负载电容序列, 对于门单元种类
和门单元尺寸这两种类别型序列特征, 首先通过填充处理解决其序列长度不一致问题, 然
后将填充后的序列输入到嵌入层中, 通过网络学习得到元素 的向量表征, 负载电容则经过
分箱后采用填充操作补齐到统一长度, 并采用嵌入层学习向量表达, 接着将上述经嵌入层
学习后得到的表达进行向量拼接, 最后拼接完的向量输入到双向长短期记忆神经网络
BLSTM中进行训练。
5.根据权利要求4所述的数字集成电路众工艺角延时预测方法, 其特征在于: 所述门单
元种类和门单元尺寸这两种类别型序列, 这两种类别变量组成的序列采用相似的预处理手
段; 首先对于序列 做从字符串到整型数字的映射, 之后, 对路径的整 型值向量进 行填充到统
一长度, 且填充值为0; 对于负载电容组成的连续数值序列, 采用分桶的方法首先将连续数
值分桶到不同标识中, 再把每 个桶映射成整形 数; 其中分桶公式bi n如下:
bin(x)=round(u*x)%v+1 (2)
其中round函数代表取整函数, x为负载电容序列中的元素, u代表对元素的放大倍数,
也即保留的小数点后的位数, 数值为10的整数倍, v则是分桶的数目; 该分桶策略将负载电
容映射到1至v之中, 经 过映射后负载电容之间依旧保持着数据的相对大小关系;
之后, 采用双向长短期记忆神经网络BLSTM抽取路径拓扑特征, 先将数据处理成为网络
所需输入形式, 然后输入到网络中进行训练: 首先, 输入数据经过嵌入层处理后, 数据维度
为Ns×sl×emb, 其中, Ns为样本数量, 即输入路径数; sl为填充后序列输入 长度, 在这里被统
一填充到同一长度, 也就是最长输入路径的级数, emb代表嵌入层的神经元个数, 即序列中
元素被表示为向量时的向量维度; 随后, 将嵌入层的输出作为双向长短期记忆神经网络
BLSTM的输入, 由于双向长短期记忆神经网络BLSTM对序列进行双向的学习, hid在数值上等
于两倍的隐藏层神经元个数; 最后, 在双向长短期记忆神经网络BLSTM之后连接池化层, 对
序列输出的第二个维度进行降维, 输出向量的维度为Ns×ho; 经过池化层降维的向量输出将
会和S2步骤的输出进行合并作为S4中的多门控混合专 家网络MMoE的输入。
6.根据权利要求1所述的数字集成电路众工艺角延时预测方法, 其特征在于: 所述步骤
S4中的多门控混合专家网络MMoE, 其中的专家层能够对不同的任务分别进行学习, 门控函
数经过网络学习后能够对不同专家赋予不同的权重; 假设任务数为K个, 则第k个子任务的
输出yk由下式(3)决定, 其中x为多门控混合专家 网络MMoE的输入, hk为顶层塔函数, fk为共
享底层操作函数, gk表示门控函数,Wgk是模型中可学习的权重矩阵参数, 该权重矩阵的维度
为(n,d); 其中, n和d分别是专家 网络的个数和输入特征的维度, 即特征个数, softmax函数
为归一化指数函数;权 利 要 求 书 2/3 页
3
CN
专利 一种数字集成电路众工艺角延时预测方法
文档预览
中文文档
14 页
50 下载
1000 浏览
0 评论
309 收藏
3.0分
温馨提示:本文档共14页,可预览 3 页,如浏览全部内容或当前文档出现乱码,可开通会员下载原始文档
本文档由 人生无常 于 2024-03-18 17:55:02上传分享