首页 > 其他分享 >【数字IC】——器件延迟模型(NLDM、CCS)与线延迟模型(WLM、Topo-M)

【数字IC】——器件延迟模型(NLDM、CCS)与线延迟模型(WLM、Topo-M)

时间:2024-07-27 14:54:43浏览次数:15  
标签:电容 模型 NLDM CCS 模块 延迟

1、器件延迟模型

器件延迟的两种理论模型:

非线性延迟模型(Non-linear Delay Model, NLDM)

复合电流源模型(Composite Current Source Model, CCSM)

1.1 NLDM

        NLDM是一项早期引入的技术,特别是在65 nm工艺节点之前,该技术为迅速评估单元的延迟提供了有效方法。这种方法依赖于NLDM驱动模块和NLDM接收模块,确保了对单元延迟的准确模拟。

非线性延迟模型

        在库文件中,NLDM是一个二维查找表,这个查找表的两个索引分别是输入转换时间和输出电容,表中的内容是上升下降沿的延迟以及输出转换时间的值。

        随着工艺尺寸的减小,金属连线上的电阻值变得越来越大,当电压源的内阻Rd远远小于金属连线上的电阻的时候,电压源模型会发生严重的失真;对于NLDM接受模块,在先进工艺节点下,密勒效应更加明显,无法进行建模。因此提出了一种新的器件延迟的模型CCS,CCS模型很好地解决了NLDM模型严重失真的问题。

1.2 CCS

        CCS模型包括了CCS驱动模块和CCS接收模块,CCS驱动模块表征的是流入负载电容的电流值,它的两个索引也分别是输入转换时间和输出电容,但是和NLDM的区别在于查找表中的值不是一个确定的值,而是电流波形

        和NLDM不同,CCS描述的是一个非线性复用电流源,即使金属连线上的电阻非常大,也可以精确得到输出电流的波形。CCS接收模块采用双电容的形式来描述密勒效应,在接收模块的电压值达到延迟阈值的前后,分别采用两个电容进行描述,相较于NLDM的单电容描述更加准确

复合电流源模型

 

 2、线延迟模型

线延迟共有两种模型,存在两种计算互连线产生RC系数的方式:

线负载模型(Wire Load Mode, WLM)

拓扑模式(Topographical Mode,Topo-M)

2.1 WLM

        WLM是根据fanout来估算门电路与门电路之间的线路的长度,再根据连线长度来进行线上电阻、电容和面积的参数估计,是一种概率上的统计结果。

        这种方式具有明显的不足之处,它并不能准确计算出金属连线的长度,因此计算出的RC可能会与真实的RC值产生很大的偏差,并且网表中可能包含过缓冲或欠缓冲的门,在综合时需要反复迭代。

2.2 Topographical Mode

        WLM存在明显的不足之处,设计者提出了另一种拓扑模式,拓扑模式通过拥塞感知布线估计的方法去实现粗略布局,估计出的RC信息与完成布局布线后的RC信息更加接近。

        Design Compiler -topo采用二次综合的流程,首先Design Compiler会对设计进行初步综合,得到初步的ddc文件后进行布局规划(Floorplan),然后根据器件的位置得到线负载模型,第二次综合通过后生成用于后端布局布线的网表。

topo综合流程图

标签:电容,模型,NLDM,CCS,模块,延迟
From: https://blog.csdn.net/lbyNO_1/article/details/140734874

相关文章

  • ollama llama3.1 8b openbuddy 模型
    openbuddy对于llama3.18b模型进行了少量的中文训练实现了不错的中文理解处理,以下是使用社区提供的gguf格式,制作一个ollama新模型模型制作下载模型下载gguf文件,推荐使用加速工具Modelfile参考了llama3.1的FROM/home/models/openbuddy-llama3.1-8b-v22.1-......
  • 14、flask-模型-models-表的操作-增删改查
    1.单表操作1.修改表结构接着上一步的数据迁移后、生成了表,接下来就要对表的操作这里稍微对表结构改了一下models.pyfrom.extsimportdb#导入db对象classUser(db.Model):#表名__tablename__='user'#字段id=db.Column(db.Integer,primar......
  • 动态预测的艺术:Mojo模型与实时调整的融合
    动态预测的艺术:Mojo模型与实时调整的融合在机器学习领域,模型的推理速度和准确性往往需要在实际应用中不断调整以达到最优状态。Mojo模型,作为ONNX(OpenNeuralNetworkExchange)的一部分,提供了一种高效的模型部署格式。但Mojo模型是否支持实时预测的动态调整呢?本文将深入探讨......
  • 线性模型的 SHAP 值与手动计算的值不同
    我训练一个线性模型来预测房价,然后我将手动计算的Shapley值与SHAP库返回的值进行比较,它们略有不同。我的理解是,对于线性模型,Shapley值是给定的通过:coeff*featuresforobs-coeffs*mean(featuresintrainingset)或者如SHAP文档中所述:coef[i]*......
  • 保护数据传输:在Mojo模型中实现端到端加密
    保护数据传输:在Mojo模型中实现端到端加密在机器学习领域,模型的安全性越来越受到重视。特别是在模型部署和推理过程中,确保数据的安全性至关重要。Mojo模型,作为ONNX(OpenNeuralNetworkExchange)的一部分,提供了一种高效的模型部署格式。本文将深入探讨如何在Mojo模型中实现模......
  • 基于YOLOv9的停车场空闲车位检测【python源码+UI界面+数据集+模型+语音报警+安装说明
    往期精品导航基于YOLOv9的脑肿瘤区域检测智慧课堂基于YOLOv8的学生上课行为检测基于YOLOv9+pyside的安检仪x光危险物物品检测(有ui)基于YOLOv9的PCB板缺陷检测基于YOLOv9的线路绝缘子缺陷检测【python源码+UI界面+数据集+模型+语音报警+安装说明】基于YOLOv9的道路状况检测【......
  • 大模型争锋:左手“世界最强” 右手“高性价比”
    2020年,OpenAI团队发表论文,正式提出了大模型开发的经验法则ScalingLaw,目前它并没有统一的中文名称,大致可以理解为“规模法则”,更通俗地说是“大力出奇迹”。2022年年底,ChatGPT的横空出世验证了“规模法则”的“智能涌现”能力——规模越大,效果越优。要提升模型效果,就需要不......
  • 19.延迟队列优化
    问题前面所讲的延迟队列有一个不足之处,比如现在有一个需求需要延迟半个小时的消息,那么就只有添加一个新的队列。那就意味着,每新增一个不同时间需求,就会新创建一个队列。解决方案应该讲消息的时间不要跟队列绑定,应该交给消息的生产者,由发送消息来指定延迟时间。这样就可以定......
  • 2024年国际高校数学建模竞赛问题B:空间迁移计划和战略完整思路 模型 代码 结果分享(仅供
    2024年国际高校数学建模竞赛问题B:空间迁移计划和战略(2024InternationalMathematicsMoldingContestforHigherEducation(IMMCHE)ProblemB:SpaceMigrationProgramandStrategy)我们的未来有两种可能性:第一,我们将留在地球上,直到我们完全灭绝;其次我们决心成为太空旅......
  • 如何知道大模型是否了解某个知识/概念
    要确定大模型是否了解某个特定知识或概念,以下几种方法可以帮助你进行评估:1.**直接提问**:   -**描述问题**:请模型解释某个概念。例如,你可以问“大模型,请解释一下牛顿的第一定律是什么?”   -**生成问题**:让模型生成一些与该概念相关的问题,以此观察模型是否能正确问出与主......