文档介绍:存储器缓存架构中的cpu的制作方法
专利名称:存储器缓存架构中的cpu的制作方法
技术领域:
本发明一般涉及存储器缓存架构中的CPU,更具体地,涉及存储器交叉式缓存架构中的CPU。
背景技术:
在微处理器(术语“微处理器”在本文中)。页、框和槽全部为相同大小。活跃的虚拟存储器页驻留在各自的主存储器框中。变得不活跃的虚拟存储页移到辅助存储槽(有时被称为分页数据集)。VM页充当从整个VM地址空间可能存取的页的高级缓存。当VM管理器将旧的、较不经常使用的页发送至外部辅助存储器时,可编址的存储器页框填充页槽。传统VM管理通过承担管理主存储器和外部存储装置的大部分职责来简化计算机编程。传统VM管理通常需要使用翻译表进行VM地址与物理地址之间的比较。必须搜寻翻译表以查找每个存储器存取和被翻译为物理地址的虚拟地址。翻译后备缓冲器(TLB)是可加速虚拟地址与物理地址之间的比较的最近VM存取的小缓存。TLB通常被实现为CAM,并且搜寻TLB比顺序搜寻页表快成千上万倍。每个指令执行必然导致查找每个
VM地址的开销。由于缓存构成传统计算机的晶体管和功耗的大部分,所以调谐它们对于大多数组织的整体信息技术预算而言是极其重要的。“调谐”可来自改进的硬件、或软件、或两者。“软件调谐”典型地表现为将经常存取的程序、数据结构和数据放置在由如DB2、Oracle、Microsoft SQL服务器和MS/Access的数据库管理系统(DBMS)软件限定的缓存中。DBMS实现的缓存对象通过存储如索引的重要数据结构和如结构化查询语言(SQL)例程的经常执行指令来增强应用程序执行性能和数据库吞吐量,其中结构化查询语言(SQL)例程执行共同系统或数据库函数(即,“日期”或“登录/登出”)。
对于通用的处理器,使用多核处理器的大部分动机来自于处理器性能因增加操作频率(即,每秒的时钟周期)而明显减少的潜在增益。这是由于三个主要因数::处理器与存储器速度之间不断增加的差距。这个效应推动缓存大小变大以遮掩存储器的延迟。其仅有助于达到存储器带宽不是性能的瓶颈的程度。(ILP)墙:在单指令流中找到足够的并行性以保持高性能单核处理器繁忙的不断增加的困难。:不断增加的功率与操作频率的增加之间的线性关系。这种增加可通过为同一逻辑使用更小的追踪使处理器“收缩”而减缓。功率墙带来了在面对因存储器墙和ILP墙而导致性能的增益减少时还未被证明是合理的制造、系统、设计和部署的问题。为了继续输送用于通用处理器的定期性能改进,诸如Intel和AMD的制造商转向多核设计,牺牲了低制造成本而在一些应用和系统中换取更高性能。正在开发多核架构及替代物。例如,对于已建立市场,特别强劲的竞争者是将外围功能进一步集成到芯片中。同一管芯上多个CPU核的邻近允许缓存相干电路以比信号必须传播至芯片外的可能时钟速率高得多的时钟速率进行操作。在单个管芯上组合等同的CPU明显地改进了缓存和总线监听操作的性能。由于不同的CPU之间的信号行进较短的距离,所以这些信号劣化较小。因为单独的信号可能更短并且不需经常重复,这些“较高质量的”信号允许在给定时间段中更多的数据被更可靠地发送。性能上最大的提高出现在CPU密集型过程中,如抗病毒扫描、翻录/燃烧媒质(需要文件转换)或者搜寻文件夹。例如,如果在观看电影的同时自