关于CPU手动清除程序全解析: (关于cpu的知识)

CPU手动清除程序全解析:深入了解中央处理器的知识 关于cpu的知识

一、引言

在现代计算机系统中,中央处理器(CPU)作为核心组件,负责执行各种计算任务和处理数据。
随着科技的不断发展,CPU的性能不断提升,其功能也越来越强大。
在使用CPU的过程中,有时我们需要对其进行手动清除程序,以优化系统性能或解决某些问题。
本文将详细介绍CPU手动清除程序的相关知识,帮助读者更好地了解中央处理器的运作原理及优化方法。

二、CPU基本知识

1. CPU定义

中央处理器(CPU)是计算机系统的核心部件,负责执行各种运算和数据处理任务。
它由数以亿计的晶体管组成,能够高速、精确地执行各种算术、逻辑和输入/输出操作。

2. CPU结构

CPU的结构主要包括控制器、运算器、寄存器和高速缓存等部分。
控制器负责协调CPU的各个部分,确保程序按照预定的顺序执行;运算器负责执行各种算术和逻辑运算;寄存器用于存储数据和程序指令;高速缓存用于暂时存储数据和指令,以提高访问速度。

三、CPU手动清除程序的需求与原因

1. 需求

在进行某些特定操作或系统维护时,可能需要手动清除CPU中的程序。
例如,当系统出现错误、性能下降或需要更新系统时,可能需要清除CPU中的某些数据或程序。

2. 原因

(1)系统错误:当计算机系统出现错误时,可能需要清除CPU中的某些数据或程序以恢复正常运行。

(2)性能优化:随着软件的不断升级和更新,有时需要对CPU进行手动清除,以释放资源并提高系统性能。

(3)安全考虑:在某些情况下,为了保护系统安全,需要清除CPU中的某些数据或程序以防止恶意软件的入侵。

四、CPU手动清除程序的方法与步骤

手动清除CPU程序通常涉及到操作系统层面,以下是一些常见的方法和步骤:

1. 关闭计算机并断开电源。

2. 打开计算机主机箱,找到CPU所在的插槽。

3. 轻轻地将CPU插槽的保护盖取下。

4. 使用专门的清洁工具或刷子清洁CPU及其插槽的灰尘和杂物。

5. 使用专业的清洁纸或清洁液清洁CPU的表面和引脚。

6. 将CPU重新安装到插槽中,并确保固定牢固。

7. 重新连接计算机主机箱并开启电源。

8. 进入BIOS设置,检查CPU的状态和功能是否正常。

9. 重新启动计算机并检查系统性能是否有所提升。

需要注意的是,手动清除CPU程序具有一定的风险,如果不熟悉操作过程或操作不当,可能会导致硬件损坏或系统问题。
因此,在进行手动清除操作之前,请务必了解相关知识和风险,并谨慎操作。

五、其他优化CPU性能的方法

除了手动清除程序外,还有其他一些方法可以优化CPU性能:

1. 软件优化:定期更新和升级操作系统和应用程序,以确保其兼容性和性能。

2. 硬件升级:根据需要升级CPU、内存和显卡等硬件,以提高系统性能。电脑扩容升级内存条。电脑升级内存条的作用和好处电脑扩充内存的作用扩充内存对电脑的好处电脑内存扩展的好处电脑增加内存条的好处。


3. 清洁散热系统:定期清洁计算机散热系统,确保其正常运行并保持良好的散热效果。

六、结论

本文详细介绍了CPU手动清除程序的相关知识,包括CPU的基本知识、手动清除的需求与原因、方法与步骤以及其他优化CPU性能的方法。通过了解和掌握这些知识,读者可以更好地了解中央处理器的运作原理及优化方法,从而提高计算机系统的性能并解决潜在问题。在进行任何操作之前,请务必谨慎并了解相关风险。


关于CPU的一些知识

CPU又叫中央处理器,是英文单词Central Processing Unit的缩写,负责对信息和数据进行运算和处理,并实现本身运行过程的自动化。 在早期的计算机当中,CPU被分成了运算器和控 制器两个部分,后来由于电路集成度的提高,在微处理器问世时,就将它们都集成在一个芯片中了。 需要智能控制、大量信息处理的地方就会 用到CPU。 CPU有通用CPU和嵌入式CPU,通用和嵌入式的分别,主要是根据应用模式的不同而划分的。 通用CPU芯片的功能一般比较强,能运 行复杂的操作系统和大型应用软件。 嵌入式CPU在功能和性能上有很大的变化范围。 随着集成度的提高,在嵌入式应用中,人们倾向于把CPU、 存储器和一些外围电路集成到一个芯片上,构成所谓的系统芯片(简称为SOC),而把SOC上的那个CPU成为CPU芯核。 现在,指令系统的优化设计有两个截然相反的方向。 一个是增强指令的功能,设置一些功能复杂的指令,把一些原来有软件实现的常用功能 改用硬件的指令系统来实现,这种计算机成为复杂指令系统计算机。 早期Intel的X86指令体系就是一种CISC指令结构。 RISC是Reduced Instruction Set Computer的缩写中文翻译成精简指令系统计算机,是八十年代发展起来的,尽量简化指令功能,只保留那些功能简单,能在 一个节拍内执行完成的指令,较复杂的功能用一段子程序来实现,这种计算机系统成为精简指令系统计算机。 目前采用RISC体系结构的处理器 的芯片厂商有SUN、SGI、IBM的Power PC系列、DEC公司的Alpha系列、Motorola公司的龙珠和Power PC等等。 介绍一下 MIPS体系。 MIPS是世界上很流行的一种RISC处理器。 MIPS的意思是无内部互锁流水级的微处理器(Microprocessor without interlocked piped stages),其机制是尽量利用软件办法避免流水线中的数据相关问题。 他最早是在80年代初期由斯坦福(Stanford)大学 Hennessy教授领导的研究小组研制出来的。 MIPS公司的R系列就是在此基础上开发的RISC工业产品的微处理器。 这些系列产品以为很多打计算机 公司采用构成各种工作站和计算机系统。 指令系统 要讲CPU,就必须先讲一下指令系统。 指令系统指的是一个CPU所能够处理的全部指 令的集合,是一个CPU的根本属性。 比如我们现在所用的CPU都是采用x86指令集的,他们都是 同一类型的CPU,不管是PIII、Athlon或Joshua。 我们也知道,世界上还有比PIII和Athlon快得多的CPU,比如Alpha,但它们不是用x86指令集 ,不能使用数量庞大的基于x86指令集的程序,如Windows98。 之所以说指令系统是一个CPU的根本属性,是因为指令系统决定了一个CPU能够运 行什么样的程序。 所有采用高级语言编出的程序,都需要翻译(编译或解释)成为机器语言后才能运行,这些机器语言中 所包含的就是一条条的指令。 1、 指令的格式 一条指令一般包括两个部分:操作码和地址码。 操 作码其实就是指令序列号,用来告诉CPU需要执行的是那一条指令。 地址码则复杂一些,主要包括源操作数地址、目的地址和下一条指令的地址 。 在某些指令中,地址码可以部分或全部省略,比如一条空指令就只有操作码而没有地址码。 举个例子吧,某个指令系统 的指令长度为32位,操作码长度为8位,地址长度也为8位,且第一条指令是加,第二条指令是减。 当它收到一个 “”的指令时,先取出它的前8位操作码,即,分析得出这是一个减法操作,有3个地址,分别是 两个源操作数地址和一个目的地址。 于是,CPU就到内存地址处取出被减数,到处取出减数,送到ALU中进行减法运算,然后 把结果送到处。 这只是一个相当简单化的例子,实际情况要复杂的多 2、 指令的分类与寻址 方式 一般说来,现在的指令系统有以下几种类型的指令: (1)算术逻辑运算指令 算术逻辑运算 指令包括加减乘除等算术运算指令,以及与或非异或等逻辑运算指令。 现在的指令系统还加入了一些十进制运算指令以及字符串运算指令等。 (2)浮点运算指令 用于对浮点数进行运算。 浮点运算要大大复杂于整数运算,所以CPU中一般还会有专门负责浮点运 算的浮点运算单元。 现在的浮点指令中一般还加入了向量指令,用于直接对矩阵进行运算,对于现在的多媒体和3D处理很有用。 (3)位 操作指令 学过C的人应该都知道C语言中有一组位操作语句,相对应的,指令系统中也有一组位操作指令,如左移一位右移 一位等。 对于计算机内部以二进制不码表示的数据来说,这种操作是非常简单快捷的。 (4)其他指令 上面三种都是 运算型指令,除此之外还有许多非运算的其他指令。 这些指令包括:数据传送指令、堆栈操作指令、转移类指令、输入输出指令和一些比较特 殊的指令,如特权指令、多处理器控制指令和等待、停机、空操作等指令。 对于指令中的地址码,也会有许多不同的寻址 (编址)方式,主要有直接寻址,间接寻址,寄存器寻址,基址寻址,变址寻址等,某些复杂的指令系统会有几十种甚至更多的寻址方式。 3、 CISC与RISC CISC,Complex Instruction Set Computer,复杂指令系统计算机。 RISC,Reduced Instruction Set Computer,精简指令系统计算机。 虽然这两个名词是针对计算机的,但下文我们仍然只对指令集进行研究。 (1)CISC 的产生、发展和现状 一开始,计算机的指令系统只有很少一些基本指令,而其他的复杂指令全靠软件编译时通过简单指令 的组合来实现。 举个最简单的例子,一个a乘以b的操作就可以转换为a个b相加来做,这样就用不着乘法指令了。 当然,最早的指令系统就已经 有乘法指令了,这是为什么呢?因为用硬件实现乘法比加法组合来得快得多。 由于那时的计算机部件相当昂贵,而且速度 很慢,为了提高速度,越来越多的复杂指令被加入了指令系统中。 但是,很快又有一个问题:一个指令系统的指令数是受指令操作码的位数所 限制的,如果操作码为8位,那么指令数最多为256条(2的8次方)。 那么怎么办呢?指令的宽度是很难增加的,聪明的设计师们又想出了 一种方案:操作码扩展。 前面说过,操作码的后面跟的是地址码,而有些指令是用不着地址码或只用少量的地址码的。 那么,就可以把操作码 扩展到这些位置。 举个简单的例子,如果一个指令系统的操作码为2位,那么可以有00、01、10、11四条不同的指令。 现在 把11作为保留,把操作码扩展到4位,那么就可以有00、01、10、1100、1101、1110、1111七条指令。 其中1100、1101、1110、1111这四条指令 的地址码必须少两位。 然后,为了达到操作码扩展的先决条件:减少地址码,设计师们又动足了脑筋,发明了各种各样的寻址方式,如基 址寻址、相对寻址等,用以最大限度的压缩地址码长度,为操作码留出空间。 就这样,慢慢地,CISC指令系统就形成了, 大量的复杂指令、可变的指令长度、多种的寻址方式是CISC的特点,也是CISC的缺点:因为这些都大大增加了解码的难度,而在现在的高速硬 件发展下,复杂指令所带来的速度提升早已不及在解码上浪费点的时间。 除了个人PC市场还在用x86指令集外,服务器以及更大的系统都早已不 用CISC了。 x86仍然存在的唯一理由就是为了兼容大量的x86平台上的软件。 ]:(2)RISC的产生、发展和现状 1975年,IBM的设计师John Cocke研究了当时的IBM370CISC系统,发现其中占总指令数仅20%的简单指令却在程序调用中占了80% ,而占指令数80%的复杂指令却只有20%的机会用到。 由此,他提出了RISC的概念。 事实证明,RISC是成功的。 80年代末,各公司的RISC CPU如雨后春笋般大量出现,占据了大量的市场。 到了90年代,x86的CPU如pentium和k5也开始使用先进的RISC核心。 RISC 的最大特点是指令长度固定,指令格式种类少,寻址方式种类少,大多数是简单指令且都能在一个时钟周期内完成,易于设计超标量与流水线 ,寄存器数量多,大量操作在寄存器之间进行。 由于下文所讲的CPU核心大部分是讲RISC核心,所以这里就不多介绍了,对于RISC核心的设计下 面会详细谈到。 RISC目前正如日中天,Intel的Itanium也将最终抛弃x86而转向RISC结构。 二、CPU内核结构 好吧 ,下面来看看CPU。 CPU内核主要分为两部分:运算器和控制器。 (一) 运算器 1、 算术逻辑运算单元ALU(Arithmetic and Logic Unit) ALU主要完成对二进制数据的定点算术运算(加减乘除)、逻辑运算(与或非异或)以及移位操作。 在某些CPU中还 有专门用于处理移位操作的移位器。 通常ALU由两个输入端和一个输出端。 整数单元有时也称为IEU(Integer Execution Unit)。 我们通常所说的“CPU是XX位的”就是指ALU所能处理的数据的位数。 2、 浮点运算单元FPU(Floating Point Unit) FPU主要负责浮点运算和高精度整数运算。 有些FPU还具有向量运算的功能,另外一些则有专门的向量处理单元。 3、通用寄存器组 通用寄存器组是一组最快的存储器,用来保存参加运算的操作数和中间结果。 在通用寄存器的设计上,RISC与CISC有 着很大的不同。 CISC的寄存器通常很少,主要是受了当时硬件成本所限。 比如x86指令集只有8个通用寄存器。 所以,CISC的CPU执行是大多数时 间是在访问存储器中的数据,而不是寄存器中的。 这就拖慢了整个系统的速度。 而RISC系统往往具有非常多的通用寄存器,并采用了重叠寄存 器窗口和寄存器堆等技术使寄存器资源得到充分的利用。 对于x86指令集只支持8个通用寄存器的缺点,Intel和AMD的最新 CPU都采用了一种叫做“寄存器重命名”的技术,这种技术使x86CPU的寄存器可以突破8个的限制,达到32个甚至更多。 不过,相对于RISC来说 ,这种技术的寄存器操作要多出一个时钟周期,用来对寄存器进行重命名。 4、 专用寄存器 专用寄存器通常是一些状 态寄存器,不能通过程序改变,由CPU自己控制,表明某种状态。 (二) 控制器 运算器只能完成运算,而控 制器用于控制着整个CPU的工作。 1、 指令控制器 指令控制器是控制器中相当重要的部分,它要完成取指令、分析指令等操作,然 后交给执行单元(ALU或FPU)来执行,同时还要形成下一条指令的地址。 2、 时序控制器 时序控制器的作用是为每条 指令按时间顺序提供控制信号。 时序控制器包括时钟发生器和倍频定义单元,其中时钟发生器由石英晶体振荡器发出非常稳定的脉冲信号,就 是CPU的主频;而倍频定义单元则定义了CPU主频是存储器频率(总线频率)的几倍。 3、 总线控制器 总线控制器主要用于控制CPU 的内外部总线,包括地址总线、数据总线、控制总线等等。 4、中断控制器 中断控制器用于控制各种各样的中断请求,并根据优先 级的高低对中断请求进行排队,逐个交给CPU处理。 (三) CPU核心的设计 CPU的性能是由什么决定的呢?单纯的一个ALU速度在一个CPU中并不起决定性作用,因为ALU的速度都差不多。 而一个CPU的性能表现的决 定性因素就在于CPU内核的设计。 1、超标量(Superscalar) 既然无法大幅提高ALU的速度,有什么替代的方法呢?并行处理的方 法又一次产生了强大的作用。 所谓的超标量CPU,就是只集成了多个ALU、多个FPU、多个译码器和多条流水线的CPU,以并行处理的方式来提高 性能。 超标量技术应该是很容易理解的,不过有一点需要注意,就是不要去管“超标量”之前的那个数字,比如“9路超标量”,不同 的厂商对于这个数字有着不同的定义,更多的这只是一种商业上的宣传手段。 2、流水线(Pipeline) 流水线是现代RISC核心的一 个重要设计,它极大地提高了性能。 对于一条具体的指令执行过程,通常可以分为五个部分:取指令,指令译码,取操作数,运算 (ALU),写结果。 其中前三步一般由指令控制器完成,后两步则由运算器完成。 按照传统的方式,所有指令顺序执行,那么先是指令控制器工 作,完成第一条指令的前三步,然后运算器工作,完成后两步,在指令控制器工作,完成第二条指令的前三步,在是运算器,完成第二条指令 的后两部……很明显,当指令控制器工作是运算器基本上在休息,而当运算器在工作时指令控制器却在休息,造成了相当大的资源浪费。 解决 方法很容易想到,当指令控制器完成了第一条指令的前三步后,直接开始第二条指令的操作,运算单元也是。 这样就形成了流水线系统,这是 一条2级流水线。 如果是一个超标量系统,假设有三个指令控制单元和两个运算单元,那么就可以在完成了第一条指令的取址工作后直 接开始第二条指令的取址,这时第一条指令在进行译码,然后第三条指令取址,第二条指令译码,第一条指令取操作数……这样就是一个5级流 水线。 很显然,5级流水线的平均理论速度是不用流水线的4倍。 流水线系统最大限度地利用了CPU资源,使每个部件在每个时钟周期都 工作,大大提高了效率。 但是,流水线有两个非常大的问题:相关和转移。 在一个流水线系统中,如果第二条指令需要用到第一条指 令的结果,这种情况叫做相关。 以上面哪个5级流水线为例,当第二条指令需要取操作数时,第一条指令的运算还没有完成,如果这时第二条指 令就去取操作数,就会得到错误的结果。 所以,这时整条流水线不得不停顿下来,等待第一条指令的完成。 这是很讨厌的问题,特别是对于比 较长的流水线,比如20级,这种停顿通常要损失十几个时钟周期。 目前解决这个问题的方法是乱序执行。 乱序执行的原理是在两条相关指令中 插入不相关的指令,使整条流水线顺畅。 比如上面的例子中,开始执行第一条指令后直接开始执行第三条指令(假设第三条指令不相关),然 后才开始执行第二条指令,这样当第二条指令需要取操作数时第一条指令刚好完成,而且第三条指令也快要完成了,整条流水线不会停顿。 当 然,流水线的阻塞现象还是不能完全避免的,尤其是当相关指令非常多的时候。 另一个大问题是条件转移。 在上面的例子中,如果第 一条指令是一个条件转移指令,那么系统就会不清楚下面应该执行那一条指令?这时就必须等第一条指令的判断结果出来才能执行第二条指令 。 条件转移所造成的流水线停顿甚至比相关还要严重的多。 所以,现在采用分支预测技术来处理转移问题。 虽然我们的程序中充满着分支,而 且哪一条分支都是有可能的,但大多数情况下总是选择某一分支。 比如一个循环的末尾是一个分支,除了最后一次我们需要跳出循环外,其他 的时候我们总是选择继续循环这条分支。 根据这些原理,分支预测技术可以在没有得到结果之前预测下一条指令是什么,并执行它。 现在的分 支预测技术能够达到90%以上的正确率,但是,一旦预测错误,CPU仍然不得不清理整条流水线并回到分支点。 这将损失大量的时钟周期。 所以 ,进一步提高分支预测的准确率也是正在研究的一个课题。 越是长的流水线,相关和转移两大问题也越严重,所以,流水线并不是越 长越好,超标量也不是越多越好,找到一个速度与效率的平衡点才是最重要的。 1、解码器(Decode Unit) 这是x86CPU才有的东西,它的作用是把长度不定的x86指令转换为长度固定的类似于RISC的指令,并交给RISC内核。 解码分为硬件解码和微解码 ,对于简单的x86指令只要硬件解码即可,速度较快,而遇到复杂的x86指令则需要进行微解码,并把它分成若干条简单指令,速度较慢且很复 杂。 好在这些复杂指令很少会用到。 Athlon也好,PIII也好,老式的CISC的x86指令集严重制约了他们的性能表现。 2、一级缓存 和二级缓存(Cache) 以及缓存和二级缓存是为了缓解较快的CPU与较慢的存储器之间的矛盾而产生的,以及缓存通常集成在CPU内核, 而二级缓存则是以OnDie或OnBoard的方式以较快于存储器的速度运行。 对于一些大数据交换量的工作,CPU的Cache显得尤为重要。

CPU的基础知识大全

中央处理器(CPU)其实是一块超大规模的集成电路,用显微镜观察一平方毫米的地方都有超密集的电路集成。 是一台电脑的运算核心和控制核心,它的功能主要是解释计算机指令以及处理各种软件数据。 下面就让我带你去看看关于 CPU的基础知识大全吧 ,希望能帮助到大家!

CPU 的基础知识

CPU是计算机的大脑。

1、程序的运行过程,实际上是程序涉及到的、未涉及到的一大堆的指令的执行过程。

当程序要执行的部分被装载到内存后,CPU要从内存中取出指令,然后指令解码(以便知道类型和操作数,简单的理解为CPU要知道这是什么指令),然后执行该指令。 再然后取下一个指令、解码、执行,以此类推直到程序退出。

2、这个取指、解码、执行三个过程构成一个CPU的基本周期。

3、每个CPU都有一套自己可以执行的专门的指令集(注意,这部分指令是CPU提供的,CPU-Z软件可查看)。

正是因为不同CPU架构的指令集不同,使得x86处理器不能执行ARM程序,ARM程序也不能执行x86程序。 (Intel和AMD都使用x86指令集,手机绝大多数使用ARM指令集)。

注:指令集的软硬件层次之分:硬件指令集是硬件层次上由CPU自身提供的可执行的指令集合。 软件指令集是指语言程序库所提供的指令,只要安装了该语言的程序库,指令就可以执行。

4、由于CPU访问内存以得到指令或数据的时间要比执行指令花费的时间长很多,因此在CPU内部提供了一些用来保存关键变量、临时数据等信息的通用寄存器。

所以,CPU需要提供 一些特定的指令,使得可以从内存中读取数据存入寄存器以及可以将寄存器数据存入内存。

此外还需要提供加法、减、not/and/or等基本运算指令,而乘除法运算都是推算出来的(支持的基本运算指令参见ALUFunctions),所以乘除法的速度要慢的多。 这也是算法里在考虑时间复杂度时常常忽略加减法次数带来的影响,而考虑乘除法的次数的原因。

5、除了通用寄存器,还有一些特殊的寄存器。典型的如:

PC:program counter,表示程序计数器,它保存了将要取出的下一条指令的内存地址,指令取出后,就会更新该寄存器指向下一条指令。

堆栈指针:指向内存当前栈的顶端,包含了每个函数执行过程的栈帧,该栈帧中保存了该函数相关的输入参数、局部变量、以及一些没有保存在寄存器中的临时变量。

PSW:program statusword,表示程序状态字,这个寄存器内保存了一些控制位,比如CPU的优先级、CPU的工作模式(用户态还是内核态模式)等。

6、在CPU进行进程切换的时候,需要将寄存器中和当前进程有关的状态数据写入内存对应的位置(内核中该进程的栈空间)保存起来,当切换回该进程时,需要从内存中拷贝回寄存器中。 即上下文切换时,需要保护现场和恢复现场。

7、为了改善性能,CPU已经不是单条取指-->解码-->执行的路线,而是分别为这3个过程分别提供独立的取值单元,解码单元以及执行单元。 这样就形成了流水线模式。

例如,流水线的最后一个单元——执行单元正在执行第n条指令,而前一个单元可以对第n+1条指令进行解码,再前一个单元即取指单元可以去读取第n+2条指令。 这是三阶段的流水线,还可能会有更长的流水线模式。

8、更优化的CPU架构是superscalar架构(超标量架构)。 这种架构将取指、解码、执行单元分开,有大量的执行单元,然后每个取指+解码的部分都以并行的方式运行。 比如有2个取指+解码的并行工作线路,每个工作线路都将解码后的指令放入一个缓存缓冲区等待执行单元去取出执行。

9、除了嵌入式系统,多数CPU都有两种工作模式:内核态和用户态。 这两种工作模式是由PSW寄存器上的一个二进制位来控制的。

10、内核态的CPU,可以执行指令集中的所有指令,并使用硬件的所有功能。

11、用户态的CPU,只允许执行指令集中的部分指令。 一般而言,IO相关和把内存保护相关的所有执行在用户态下都是被禁止的,此外其它一些特权指令也是被禁止的,比如用户态下不能将PSW的模式设置控制位设置成内核态。

12、用户态CPU想要执行特权操作,需要发起系统调用来请求内核帮忙完成对应的操作。 其实是在发起系统调用后,CPU会执行trap指令陷入(trap)到内核。 当特权操作完成后,需要执行一个指令让CPU返回到用户态。

13、除了系统调用会陷入内核,更多的是硬件会引起trap行为陷入内核,使得CPU控制权可以回到操作系统,以便操作系统去决定如何处理硬件异常。

关于CPU的基本组成

1、CPU是用来运算的(加法运算+、乘法运算__、逻辑运算and not or等),例如c=a+b。

2、运算操作涉及到数据输入(input)、处理、数据输出(output),a和b是输入数据,加法运算是处理,c是输出数据。

3、CPU需要使用一个叫做存储器(也就是各种寄存器)的东西保存输入和输出数据。以下是几种常见的寄存器(前文也介绍了一些)

MAR: memory address register,保存将要被访问数据在内存中哪个地址处,保存的是地址值

MDR: memory data register,保存从内存读取进来的数据或将要写入内存的数据,保存的是数据值

AC: Accumulator,保存算术运算和逻辑运算的中间结果,保存的是数据值

PC: Program Counter,保存下一个将要被执行指令的地址,保存的是地址值

CIR: current instruction register,保存当前正在执行的指令

4、CPU还要将一些常用的基本运算工具(如加法器)放进CPU,这部分负责运算,称为算术逻辑单元(ALU, Arithmetic LogicUnit)。

5、CPU中还有一个控制器(CU, Control Unit),负责将存储器中的数据送到ALU中去做运算,并将运算后的结果存回到存储器中。

控制器还包含了一些控制信号。

5、控制器之所以知道数据放哪里、做什么运算(比如是做加法还是逻辑运算?)都是由指令告诉控制器的,每个指令对应一个基本操作,比如加法运算对应一个指令。

6、例如,将两个MDR寄存器(保存了来自内存的两个数据)中的值拷贝到ALU中,然后根据指定的操作指令执行加法运算,将运算结果拷贝会一个MDR寄存器中,最后写入到内存。

7、这就是冯诺依曼结构图,也就是现在计算机的结构图。

关于CPU的多核和多线程

1、CPU的物理个数由主板上的插槽数量决定,每个CPU可以有多核心,每核心可能会有多线程。

2、多核CPU的每核(每核都是一个小芯片),在OS看来都是一个独立的CPU。

3、对于超线程CPU来说,每核CPU可以有多个线程(数量是两个,比如1核双线程,2核4线程,4核8线程),每个线程都是一个虚拟的逻辑CPU(比如windows下是以逻辑处理器的名称称呼的),而每个线程在OS看来也是独立的CPU。

这是欺骗操作系统的行为,在物理上仍然只有1核,只不过在超线程CPU的角度上看,它认为它的超线程会加速程序的运行。

4、要发挥超线程优势,需要操作系统对超线程有专门的优化。

5、多线程的CPU在能力上,比非多线程的CPU核心要更强,但每个线程不足以与独立的CPU核心能力相比较。

6、每核上的多线程CPU都共享该核的CPU资源。

例如,假设每核CPU都只有一个发动机资源,那么线程1这个虚拟CPU使用了这个发动机后,线程2就没法使用,只能等待。

所以,超线程技术的主要目的是为了增加流水线(参见前文对流水线的解释)上更多个独立的指令,这样线程1和线程2在流水线上就尽量不会争抢该核CPU资源。 所以,超线程技术利用了superscalar(超标量)架构的优点。

7、多线程意味着每核可以有多个线程的状态。 比如某核的线程1空闲,线程2运行。

8、多线程没有提供真正意义上的并行处理,每核CPU在某一时刻仍然只能运行一个进程,因为线程1和线程2是共享某核CPU资源的。 可以简单的认为每核CPU在独立执行进程的能力上,有一个资源是唯一的,线程1获取了该资源,线程2就没法获取。

但是,线程1和线程2在很多方面上是可以并行执行的。 比如可以并行取指、并行解码、并行执行指令等。 所以虽然单核在同一时间只能执行一个进程,但线程1和线程2可以互相帮助,加速进程的执行。

并且,如果线程1在某一时刻获取了该核执行进程的能力,假设此刻该进程发出了IO请求,于是线程1掌握的执行进程的能力,就可以被线程2获取,即切换到线程2。 这是在执行线程间的切换,是非常轻量级的。 (WIKI:if resources for one process are not available, then another process cancontinue if its resources are available)

9、多线程可能会出现一种现象:假如2核4线程CPU,有两个进程要被调度,那么只有两个线程会处于运行状态,如果这两个线程是在同一核上,则另一核完全空转,处于浪费状态。 更期望的结果是每核上都有一个CPU分别调度这两个进程。

关于CPU上的高速缓存

1、最高速的缓存是CPU的寄存器,它们和CPU的材料相同,最靠近CPU或最接近CPU,访问它们没有时延(<1ns)。 但容量很小,小于1kb。

32bit:32__32比特=128字节

64bit:64__64比特=512字节

2、寄存器之下,是CPU的高速缓存。 分为L1缓存、L2缓存、L3缓存,每层速度按数量级递减、容量也越来越大。

3、每核心都有一个自己的L1缓存。 L1缓存分两种:L1指令缓存(L1-icache)和L1数据缓存(L1-dcache)。 L1指令缓存用来存放已解码指令,L1数据缓存用来放访问非常频繁的数据。

4、L2缓存用来存放近期使用过的内存数据。 更严格地说,存放的是很可能将来会被CPU使用的数据。

5、多数多核CPU的各核都各自拥有一个L2缓存,但也有多核共享L2缓存的设计。 无论如何,L1是各核私有的(但对某核内的多线程是共享的)。

史上最通俗易懂的CPU知识!

CPU知识科普

CPU有几个重要的参数:主频、核心、线程、缓存、架构。 那么他们到底是什么意思,又有啥联系呢?以下知识通俗易懂,看完秒懂。

一、主频

我们常在CPU的参数里看到3.0GHz、3.7GHz等就是CPU的主频,严谨的说他是CPU内核的时钟频率,但是我们也可以直接理解为运算速度。

举个有趣的例子:CPU的主频相当于我们胳膊的肌肉(力量),主频越高,力量越大。

主频

二、核心

我们更多听到的是,这个CPU是几核几核的,如2核、4核、6核、8核、16核等等。

这个核心可以理解为我们人类的胳膊,2核就是两条胳膊,4核就是4条胳膊,6核就是6条胳膊。

核心

三、线程

光有胳膊(核心)和肌肉(频率)是干不了活的,还必须要有手(线程)才行。

一般来说,单核配单线程、双核配双线程或者双核四线程、四核八线程等等,就相当于一条胳膊长一只手。 后来由于技术越来越厉害,造出了一条胳膊长两只手的情况,这样干活的效率就大大的提高了。

四、架构

现在胳膊有了,肌肉有了,手也有了,就差一个工具就可以干活了,这个工具就是CPU的架构,架构对性能的影响巨大。

新老架构区别很大

所以说有句话叫“抛开架构看核心、频率都是耍流氓!”这就是为啥以前AMD的CPU虽然核心数量和频率都比同时期的英特尔高,但是依然流传着“i3战A8,i5秒全家、i7轰成渣”这样的说法了。

这个时候可能有的人不理解了,怎么看架构呢?这个其实不用担心,因为一般来说,每一代CPU的架构都是一样的,比如i3-8100、i5-8500、i7-8700都是8代的CPU,使用的架构也是一样的,现在官方店在售的也都是最新款,因此架构主要看最一代处理器就够了。

五、缓存

缓存也是CPU里一项很重要的参数。 由于CPU的运算速度特别快,在内存条的读写忙不过来的时候,CPU就可以把这部分数据存入缓存中,以此来缓解CPU的运算速度与内存条读写速度不匹配的矛盾,所以缓存是越大越好。

参数就算是说完了。 既然开头就说了“CPU也跟人脑一样,术业有专攻。 ”那接下来就分析一波,什么样的U适合干什么样的工作。

需求:游戏

由于游戏运行需要的是粗暴直接的计算工作,所以主频高的CPU会更有优势。

这就好比我的工作是要搬个砖,肌肉强点,力气大才是硬性需求。 就算我有8条胳膊16只手,看起来张牙舞爪的很厉害,但是我搬砖的时候根本用不到,而且这些胳膊大多力气又小,所以效果并不会很好。

所以,有游戏需求的玩家可以选择主频高点的CPU,核心和线程数少一点无所谓。(当然不能太少,至少双核四线程起步吧,如今主流都是4核4线程就差不多了)

适合游戏的高主频CPU

整体来说,英特尔i3、i5、i7和锐龙2代的CPU主频都挺高的,很适合玩游戏。 英特尔后面带“K”的CPU不仅主频更高,而且是支持超频的(需要用Z系或X系主板)。 新出的AMD锐龙2代CPU主频也很高,而且性价比也还不错。

需求:图形渲染等专业工作需求

对于需要进行大量并行运算的图形渲染来说,多核心多线程同时工作能比单核心高主频的傻大粗节省大量的时间。

绿巨人虽然搬砖能力出众,但是如果让他去完成一幅复杂的拼图,速度自然是比那种有多条胳膊和多只手同时工作的小机灵慢了不少。

绿巨人有力使不出啊

适合图形渲染和视频制作的CPU(多核、大缓存、性能强):

图形渲染 多核多线程CPU

此外,还有AMD二代锐龙R5 2600X、R7 2700/2700X以及Intel八代酷睿i7 8700/K等都很适合。

需求:日常家用,偶尔玩LOL、DNF等

这一类的用户平时就是看看网页,看看视频、看文档、玩玩LOL、DNF等游戏。

这类用户可以选择自带核显的CPU,如英特尔600块的奔腾G5500,或者800元的i3-8100。 这类CPU的自带的HD630核显完全可以轻松解码4K视频以及流畅运行LOL、DNF这类游戏,省下的钱买块固态硬盘,加条内存岂不是美滋滋。

注:使用核显请尽量组双通道内存条,以提升核显性能。 预算有限可以上2条4GB组建8GB双通道,预算充裕直接上2条8GB组16GB双通道大内存。

总结:

1.游戏用户选择高主频的CPU,4核4线程差不多就够用了。 如i3 8100/i等,此外英特尔i3-8350K、i5-8600K(这种带K的CPU还可以通过超频来达到更高的频率,不过要搭配较贵的Z370系主板使用);AMD锐龙二代CPU也很不错,建议购买后缀带X的如,锐龙RX,虽然本身性价比并不突出,但是好在可以搭配AMD平台较便宜的B350主板进行超频。

2.对于需要做图形渲染工作的用户来说,多核心多线程的CPU是最优的选择。 AMD多核心多线程的锐龙系列性价比非常的高。

3.普通用户,如果没有大型游戏需求,英特尔的i3-8100绝对是最有性价比的选择。 首先是4核4线程3.6GHz,性能足够用,而且自带的核显性能也不俗,还能省下买显卡的钱。

4.选择CPU的时候,一定要询问店家是不是支持自己的主板。 有时候虽然接口针脚数量是一样的,但是可能并不兼容。 (英特尔,别左右瞎看了,说的就是你)

那些关于CPU的知识,你真的懂了吗?

关于cpu和程序的执行

CPU是计算机的大脑。

1、程序的运行过程,实际上是程序涉及到的、未涉及到的一大堆的指令的执行过程。

当程序要执行的部分被装载到内存后,CPU要从内存中取出指令,然后指令解码(以便知道类型和操作数,简单的理解为CPU要知道这是什么指令),然后执行该指令。 再然后取下一个指令、解码、执行,以此类推直到程序退出。

2、这个取指、解码、执行三个过程构成一个CPU的基本周期。

3、每个CPU都有一套自己可以执行的专门的指令集(注意,这部分指令是CPU提供的,CPU-Z软件可查看)。

正是因为不同CPU架构的指令集不同,使得x86处理器不能执行ARM程序,ARM程序也不能执行x86程序。 (Intel和AMD都使用x86指令集,手机绝大多数使用ARM指令集)。

注:指令集的软硬件层次之分:硬件指令集是硬件层次上由CPU自身提供的可执行的指令集合。 软件指令集是指语言程序库所提供的指令,只要安装了该语言的程序库,指令就可以执行。

4、由于CPU访问内存以得到指令或数据的时间要比执行指令花费的时间长很多,因此在CPU内部提供了一些用来保存关键变量、临时数据等信息的通用寄存器。

所以,CPU需要提供 一些特定的指令,使得可以从内存中读取数据存入寄存器以及可以将寄存器数据存入内存。

此外还需要提供加法、减、not/and/or等基本运算指令,而乘除法运算都是推算出来的(支持的基本运算指令参见ALUFunctions),所以乘除法的速度要慢的多。 这也是算法里在考虑时间复杂度时常常忽略加减法次数带来的影响,而考虑乘除法的次数的原因。

5、除了通用寄存器,还有一些特殊的寄存器。典型的如:

PC:program counter,表示程序计数器,它保存了将要取出的下一条指令的内存地址,指令取出后,就会更新该寄存器指向下一条指令。

堆栈指针:指向内存当前栈的顶端,包含了每个函数执行过程的栈帧,该栈帧中保存了该函数相关的输入参数、局部变量、以及一些没有保存在寄存器中的临时变量。

PSW:program statusword,表示程序状态字,这个寄存器内保存了一些控制位,比如CPU的优先级、CPU的工作模式(用户态还是内核态模式)等。

6、在CPU进行进程切换的时候,需要将寄存器中和当前进程有关的状态数据写入内存对应的位置(内核中该进程的栈空间)保存起来,当切换回该进程时,需要从内存中拷贝回寄存器中。 即上下文切换时,需要保护现场和恢复现场。

7、为了改善性能,CPU已经不是单条取指-->解码-->执行的路线,而是分别为这3个过程分别提供独立的取值单元,解码单元以及执行单元。 这样就形成了流水线模式。

例如,流水线的最后一个单元——执行单元正在执行第n条指令,而前一个单元可以对第n+1条指令进行解码,再前一个单元即取指单元可以去读取第n+2条指令。 这是三阶段的流水线,还可能会有更长的流水线模式。

8、更优化的CPU架构是superscalar架构(超标量架构)。 这种架构将取指、解码、执行单元分开,有大量的执行单元,然后每个取指+解码的部分都以并行的方式运行。 比如有2个取指+解码的并行工作线路,每个工作线路都将解码后的指令放入一个缓存缓冲区等待执行单元去取出执行。

9、除了嵌入式系统,多数CPU都有两种工作模式:内核态和用户态。 这两种工作模式是由PSW寄存器上的一个二进制位来控制的。

10、内核态的CPU,可以执行指令集中的所有指令,并使用硬件的所有功能。

11、用户态的CPU,只允许执行指令集中的部分指令。 一般而言,IO相关和把内存保护相关的所有执行在用户态下都是被禁止的,此外其它一些特权指令也是被禁止的,比如用户态下不能将PSW的模式设置控制位设置成内核态。

12、用户态CPU想要执行特权操作,需要发起系统调用来请求内核帮忙完成对应的操作。 其实是在发起系统调用后,CPU会执行trap指令陷入(trap)到内核。 当特权操作完成后,需要执行一个指令让CPU返回到用户态。

13、除了系统调用会陷入内核,更多的是硬件会引起trap行为陷入内核,使得CPU控制权可以回到操作系统,以便操作系统去决定如何处理硬件异常。

关于CPU的基本组成

1、CPU是用来运算的(加法运算+、乘法运算__、逻辑运算and not or等),例如c=a+b。

2、运算操作涉及到数据输入(input)、处理、数据输出(output),a和b是输入数据,加法运算是处理,c是输出数据。

3、CPU需要使用一个叫做存储器(也就是各种寄存器)的东西保存输入和输出数据。以下是几种常见的寄存器(前文也介绍了一些)

MAR: memory address register,保存将要被访问数据在内存中哪个地址处,保存的是地址值

MDR: memory data register,保存从内存读取进来的数据或将要写入内存的数据,保存的是数据值

AC: Accumulator,保存算术运算和逻辑运算的中间结果,保存的是数据值

PC: Program Counter,保存下一个将要被执行指令的地址,保存的是地址值

CIR: current instruction register,保存当前正在执行的指令

4、CPU还要将一些常用的基本运算工具(如加法器)放进CPU,这部分负责运算,称为算术逻辑单元(ALU, Arithmetic LogicUnit)。

5、CPU中还有一个控制器(CU, Control Unit),负责将存储器中的数据送到ALU中去做运算,并将运算后的结果存回到存储器中。

控制器还包含了一些控制信号。

5、控制器之所以知道数据放哪里、做什么运算(比如是做加法还是逻辑运算?)都是由指令告诉控制器的,每个指令对应一个基本操作,比如加法运算对应一个指令。

6、例如,将两个MDR寄存器(保存了来自内存的两个数据)中的值拷贝到ALU中,然后根据指定的操作指令执行加法运算,将运算结果拷贝会一个MDR寄存器中,最后写入到内存。

7、这就是冯诺依曼结构图,也就是现在计算机的结构图。

关于CPU的多线和多进程

1、CPU的物理个数由主板上的插槽数量决定,每个CPU可以有多核心,每核心可能会有多线程。

2、多核CPU的每核(每核都是一个小芯片),在OS看来都是一个独立的CPU。

3、对于超线程CPU来说,每核CPU可以有多个线程(数量是两个,比如1核双线程,2核4线程,4核8线程),每个线程都是一个虚拟的逻辑CPU(比如windows下是以逻辑处理器的名称称呼的),而每个线程在OS看来也是独立的CPU。

这是欺骗操作系统的行为,在物理上仍然只有1核,只不过在超线程CPU的角度上看,它认为它的超线程会加速程序的运行。

4、要发挥超线程优势,需要操作系统对超线程有专门的优化。

5、多线程的CPU在能力上,比非多线程的CPU核心要更强,但每个线程不足以与独立的CPU核心能力相比较。

6、每核上的多线程CPU都共享该核的CPU资源。

例如,假设每核CPU都只有一个发动机资源,那么线程1这个虚拟CPU使用了这个发动机后,线程2就没法使用,只能等待。

所以,超线程技术的主要目的是为了增加流水线(参见前文对流水线的解释)上更多个独立的指令,这样线程1和线程2在流水线上就尽量不会争抢该核CPU资源。 所以,超线程技术利用了superscalar(超标量)架构的优点。

7、多线程意味着每核可以有多个线程的状态。 比如某核的线程1空闲,线程2运行。

8、多线程没有提供真正意义上的并行处理,每核CPU在某一时刻仍然只能运行一个进程,因为线程1和线程2是共享某核CPU资源的。 可以简单的认为每核CPU在独立执行进程的能力上,有一个资源是唯一的,线程1获取了该资源,线程2就没法获取。

但是,线程1和线程2在很多方面上是可以并行执行的。 比如可以并行取指、并行解码、并行执行指令等。 所以虽然单核在同一时间只能执行一个进程,但线程1和线程2可以互相帮助,加速进程的执行。

并且,如果线程1在某一时刻获取了该核执行进程的能力,假设此刻该进程发出了IO请求,于是线程1掌握的执行进程的能力,就可以被线程2获取,即切换到线程2。 这是在执行线程间的切换,是非常轻量级的。 (WIKI:if resources for one process are not available, then another process cancontinue if its resources are available)

9、多线程可能会出现一种现象:假如2核4线程CPU,有两个进程要被调度,那么只有两个线程会处于运行状态,如果这两个线程是在同一核上,则另一核完全空转,处于浪费状态。 更期望的结果是每核上都有一个CPU分别调度这两个进程。

关于CPU上的高速缓存

1、最高速的缓存是CPU的寄存器,它们和CPU的材料相同,最靠近CPU或最接近CPU,访问它们没有时延(<1ns)。 但容量很小,小于1kb。

32bit:32__32比特=128字节

64bit:64__64比特=512字节

2、寄存器之下,是CPU的高速缓存。 分为L1缓存、L2缓存、L3缓存,每层速度按数量级递减、容量也越来越大。

3、每核心都有一个自己的L1缓存。 L1缓存分两种:L1指令缓存(L1-icache)和L1数据缓存(L1-dcache)。 L1指令缓存用来存放已解码指令,L1数据缓存用来放访问非常频繁的数据。

4、L2缓存用来存放近期使用过的内存数据。 更严格地说,存放的是很可能将来会被CPU使用的数据。

5、多数多核CPU的各核都各自拥有一个L2缓存,但也有多核共享L2缓存的设计。 无论如何,L1是各核私有的(但对某核内的多线程是共享的)。

★cpu基础知识详解

★2019超详细电脑硬件及电脑配置知识大全讲解

★电脑知识大全菜鸟必备

★计算机硬件基础知识学习

★电脑入门基本知识大全

★电脑硬件入门学习

★电脑入门基本知识有哪些

★计算机网络基础技能大全

★计算机网络知识大全

★常识科普知识大全

关于CPU的基本知识

CPU 参数详解 CPU是Central Processing Unit(中央处理器)的缩写,CPU一般由逻辑运算单元、控制单元和存储单元组成。 在逻辑运算和控制单元中包括一些寄存器,这些寄存器用于CPU在处理数据过程中数据的暂时保存。 大家需要重点了解的CPU主要指标/参数有: 1.主频 主频,也就是CPU的时钟频率,简单地说也就是CPU的工作频率,例如我们常说的P4(奔四)1.8GHz,这个1.8GHz(1800MHz)就是CPU的主频。 一般说来,一个时钟周期完成的指令数是固定的,所以主频越高,CPU的速度也就越快。 主频=外频X倍频。 此外,需要说明的是AMD的Athlon XP系列处理器其主频为PR(Performance Rating)值标称,例如Athlon XP 1700+和1800+。 举例来说,实际运行频率为1.53GHz的Athlon XP标称为1800+,而且在系统开机的自检画面、Windows系统的系统属性以及WCPUID等检测软件中也都是这样显示的。 2.外频 外频即CPU的外部时钟频率,主板及CPU标准外频主要有66MHz、100MHz、133MHz几种。 此外主板可调的外频越多、越高越好,特别是对于超频者比较有用。 3.倍频 倍频则是指CPU外频与主频相差的倍数。 例如Athlon XP 2000+的CPU,其外频为133MHz,所以其倍频为12.5倍。 4.接口 接口指CPU和主板连接的接口。 主要有两类,一类是卡式接口,称为SLOT,卡式接口的CPU像我们经常用的各种扩展卡,例如显卡、声卡等一样是竖立插到主板上的,当然主板上必须有对应SLOT插槽,这种接口的CPU目前已被淘汰。 另一类是主流的针脚式接口,称为Socket,Socket接口的CPU有数百个针脚,因为针脚数目不同而称为Socket370、Socket478、Socket462、Socket423等。 5.缓存 缓存就是指可以进行高速数据交换的存储器,它先于内存与CPU交换数据,因此速度极快,所以又被称为高速缓存。 与处理器相关的缓存一般分为两种——L1缓存,也称内部缓存;和L2缓存,也称外部缓存。 例如Pentium4“Willamette”内核产品采用了423的针脚架构,具备400MHz的前端总线,拥有256KB全速二级缓存,8KB一级追踪缓存,SSE2指令集。 内部缓存(L1 Cache) 也就是我们经常说的一级高速缓存。 在CPU里面内置了高速缓存可以提高CPU的运行效率,内置的L1高速缓存的容量和结构对CPU的性能影响较大,L1缓存越大,CPU工作时与存取速度较慢的L2缓存和内存间交换数据的次数越少,相对电脑的运算速度可以提高。 不过高速缓冲存储器均由静态RAM组成,结构较复杂,在CPU管芯面积不能太大的情况下,L1级高速缓存的容量不可能做得太大,L1缓存的容量单位一般为KB。 外部缓存(L2 Cache) CPU外部的高速缓存,外部缓存成本昂贵,所以Pentium 4 Willamette核心为外部缓存256K,但同样核心的赛扬4代只有128K。 6.多媒体指令集 为了提高计算机在多媒体、3D图形方面的应用能力,许多处理器指令集应运而生,其中最著名的三种便是Intel的MMX、SSE/SSE2和AMD的3D NOW!指令集。 理论上这些指令对目前流行的图像处理、浮点运算、3D运算、视频处理、音频处理等诸多多媒体应用起到全面强化的作用。 7.制造工艺 早期的处理器都是使用0.5微米工艺制造出来的,随着CPU频率的增加,原有的工艺已无法满足产品的要求,这样便出现了0.35微米以及0.25微米工艺。 制作工艺越精细意味着单位体积内集成的电子元件越多,而现在,采用0.18微米和0.13微米制造的处理器产品是市场上的主流,例如Northwood核心P4采用了0.13微米生产工艺。 而在2003年,Intel和AMD的CPU的制造工艺会达到0.09毫米。 8.电压(Vcore) CPU的工作电压指的也就是CPU正常工作所需的电压,与制作工艺及集成的晶体管数相关。 正常工作的电压越低,功耗越低,发热减少。 CPU的发展方向,也是在保证性能的基础上,不断降低正常工作所需要的电压。 例如老核心Athlon XP的工作电压为1.75v,而新核心的Athlon XP其电压为1.65v 9.封装形式 所谓CPU封装是CPU生产过程中的最后一道工序,封装是采用特定的材料将CPU芯片或CPU模块固化在其中以防损坏的保护措施,一般必须在封装后CPU才能交付用户使用。 CPU的封装方式取决于CPU安装形式和器件集成设计,从大的分类来看通常采用Socket插座进行安装的CPU使用PGA(栅格阵列)方式封装,而采用Slot x槽安装的CPU则全部采用SEC(单边接插盒)的形式封装。 现在还有PLGA(Plastic Land Grid Array)、OLGA(Organic Land Grid Array)等封装技术。 由于市场竞争日益激烈,目前CPU封装技术的发展方向以节约成本为主。 10.整数单元和浮点单元 ALU—运算逻辑单元,这就是我们所说的“整数”单元。 数学运算如加减乘除以及逻辑运算如“OR、AND、ASL、ROL”等指令都在逻辑运算单元中执行。 在多数的软件程序中,这些运算占了程序代码的绝大多数。 而浮点运算单元FPU(Floating Point Unit)主要负责浮点运算和高精度整数运算。 有些FPU还具有向量运算的功能,另外一些则有专门的向量处理单元。 整数处理能力是CPU运算速度最重要的体现,但浮点运算能力是关系到CPU的多媒体、3D图形处理的一个重要指标,所以对于现代CPU而言浮点单元运算能力的强弱更能显示CPU的性能。 CPU内核: 核心(Die)又称为内核,是CPU最重要的组成部分。 CPU中心那块隆起的芯片就是核心,是由单晶硅以一定的生产工艺制造出来的,CPU所有的计算、接受/存储命令、处理数据都由核心执行。 各种CPU核心都具有固定的逻辑结构,一级缓存、二级缓存、执行单元、指令级单元和总线接口等逻辑单元都会有科学的布局。 为了便于CPU设计、生产、销售的管理,CPU制造商会对各种CPU核心给出相应的代号,这也就是所谓的CPU核心类型。 不同的CPU(不同系列或同一系列)都会有不同的核心类型(例如Pentium 4的Northwood,Willamette以及K6-2的CXT和K6-2+的ST-50等等),甚至同一种核心都会有不同版本的类型(例如Northwood核心就分为B0和C1等版本),核心版本的变更是为了修正上一版存在的一些错误,并提升一定的性能,而这些变化普通消费者是很少去注意的。 每一种核心类型都有其相应的制造工艺(例如0.25um、0.18um、0.13um以及0.09um等)、核心面积(这是决定CPU成本的关键因素,成本与核心面积基本上成正比)、核心电压、电流大小、晶体管数量、各级缓存的大小、主频范围、流水线架构和支持的指令集(这两点是决定CPU实际性能和工作效率的关键因素)、功耗和发热量的大小、封装方式(例如S.E.P、PGA、FC-PGA、FC-PGA2等等)、接口类型(例如Socket 370,Socket A,Socket 478,Socket T,Slot 1、Socket 940等等)、前端总线频率(FSB)等等。 因此,核心类型在某种程度上决定了CPU的工作性能。 一般说来,新的核心类型往往比老的核心类型具有更好的性能(例如同频的Northwood核心Pentium 4 1.8A GHz就要比Willamette核心的Pentium 4 1.8GHz性能要高),但这也不是绝对的,这种情况一般发生在新核心类型刚推出时,由于技术不完善或新的架构和制造工艺不成熟等原因,可能会导致新的核心类型的性能反而还不如老的核心类型的性能。 例如,早期Willamette核心Socket 423接口的Pentium 4的实际性能不如Socket 370接口的Tualatin核心的Pentium III和赛扬,现在的低频Prescott核心Pentium 4的实际性能不如同频的Northwood核心Pentium 4等等,但随着技术的进步以及CPU制造商对新核心的不断改进和完善,新核心的中后期产品的性能必然会超越老核心产品。 CPU核心的发展方向是更低的电压、更低的功耗、更先进的制造工艺、集成更多的晶体管、更小的核心面积(这会降低CPU的生产成本从而最终会降低CPU的销售价格)、更先进的流水线架构和更多的指令集、更高的前端总线频率、集成更多的功能(例如集成内存控制器等等)以及双核心和多核心(也就是1个CPU内部有2个或更多个核心)等。 CPU核心的进步对普通消费者而言,最有意义的就是能以更低的价格买到性能更强的CPU。 在CPU漫长的历史中伴随着纷繁复杂的CPU核心类型,以下分别就Intel CPU和AMD CPU的主流核心类型作一个简介。 主流核心类型介绍(仅限于台式机CPU,不包括笔记本CPU和服务器/工作站CPU,而且不包括比较老的核心类型)。 Tualatin 这也就是大名鼎鼎的“图拉丁”核心,是Intel在Socket 370架构上的最后一种CPU核心,采用0.13um制造工艺,封装方式采用FC-PGA2和PPGA,核心电压也降低到了1.5V左右,主频范围从1GHz到1.4GHz,外频分别为100MHz(赛扬)和133MHz(Pentium III),二级缓存分别为512KB(Pentium III-S)和256KB(Pentium III和赛扬),这是最强的Socket 370核心,其性能甚至超过了早期低频的Pentium 4系列CPU。 Willamette 这是早期的Pentium 4和P4赛扬采用的核心,最初采用Socket 423接口,后来改用Socket 478接口(赛扬只有1.7GHz和1.8GHz两种,都是Socket 478接口),采用0.18um制造工艺,前端总线频率为400MHz, 主频范围从1.3GHz到2.0GHz(Socket 423)和1.6GHz到2.0GHz(Socket 478),二级缓存分别为256KB(Pentium 4)和128KB(赛扬),注意,另外还有些型号的Socket 423接口的Pentium 4居然没有二级缓存!核心电压1.75V左右,封装方式采用Socket 423的PPGA INT2,PPGA INT3,OOI 423-pin,PPGA FC-PGA2和Socket 478的PPGA FC-PGA2以及赛扬采用的PPGA等等。 Willamette核心制造工艺落后,发热量大,性能低下,已经被淘汰掉,而被Northwood核心所取代。 Northwood 这是目前主流的Pentium 4和赛扬所采用的核心,其与Willamette核心最大的改进是采用了0.13um制造工艺,并都采用Socket 478接口,核心电压1.5V左右,二级缓存分别为128KB(赛扬)和512KB(Pentium 4),前端总线频率分别为400/533/800MHz(赛扬都只有400MHz),主频范围分别为2.0GHz到2.8GHz(赛扬),1.6GHz到2.6GHz(400MHz FSB Pentium 4),2.26GHz到3.06GHz(533MHz FSB Pentium 4)和2.4GHz到3.4GHz(800MHz FSB Pentium 4),并且3.06GHz Pentium 4和所有的800MHz Pentium 4都支持超线程技术(Hyper-Threading Technology),封装方式采用PPGA FC-PGA2和PPGA。 按照Intel的规划,Northwood核心会很快被Prescott核心所取代。 Prescott 这是Intel最新的CPU核心,目前还只有Pentium 4而没有低端的赛扬采用,其与Northwood最大的区别是采用了0.09um制造工艺和更多的流水线结构,初期采用Socket 478接口,以后会全部转到LGA 775接口,核心电压1.25-1.525V,前端总线频率为533MHz(不支持超线程技术)和800MHz(支持超线程技术),主频分别为533MHz FSB的2.4GHz和2.8GHz以及800MHz FSB的2.8GHz、3.0GHz、3.2GHz和3.4GHz,其与Northwood相比,其L1 数据缓存从8KB增加到16KB,而L2缓存则从512KB增加到1MB,封装方式采用PPGA。 按照Intel的规划,Prescott核心会很快取代Northwood核心并且很快就会推出Prescott核心533MHz FSB的赛扬。 Athlon XP的核心类型 Athlon XP有4种不同的核心类型,但都有共同之处:都采用Socket A接口而且都采用PR标称值标注。 Palomino 这是最早的Athlon XP的核心,采用0.18um制造工艺,核心电压为1.75V左右,二级缓存为256KB,封装方式采用OPGA,前端总线频率为266MHz。 Thoroughbred 这是第一种采用0.13um制造工艺的Athlon XP核心,又分为Thoroughbred-A和Thoroughbred-B两种版本,核心电压1.65V-1.75V左右,二级缓存为256KB,封装方式采用OPGA,前端总线频率为266MHz和333MHz。 Thorton 采用0.13um制造工艺,核心电压1.65V左右,二级缓存为256KB,封装方式采用OPGA,前端总线频率为333MHz。 可以看作是屏蔽了一半二级缓存的Barton。 Barton 采用0.13um制造工艺,核心电压1.65V左右,二级缓存为512KB,封装方式采用OPGA,前端总线频率为333MHz和400MHz。 新Duron的核心类型 AppleBred 采用0.13um制造工艺,核心电压1.5V左右,二级缓存为64KB,封装方式采用OPGA,前端总线频率为266MHz。 没有采用PR标称值标注而以实际频率标注,有1.4GHz、1.6GHz和1.8GHz三种。 Athlon 64系列CPU的核心类型 Clawhammer 采用0.13um制造工艺,核心电压1.5V左右,二级缓存为1MB,封装方式采用mPGA,采用Hyper Transport总线,内置1个128bit的内存控制器。 采用Socket 754、Socket 940和Socket 939接口。 Newcastle 其与Clawhammer的最主要区别就是二级缓存降为512KB(这也是AMD为了市场需要和加快推广64位CPU而采取的相对低价政策的结果),其它性能基本相同 cpu接口: Slots、Sockets 和 Slocket 都是用来把 CPU 安装在主板上的。 在 1981 年 IBM 的 PC 机刚出炉时,CPU 8086 是直接焊在主板上的,接着的 286、386 也都是焊在主板上,很不好拆卸,对普通用户来说一旦买了一台计算机就基本上没有什么升级的余地了。 到了 486 以后,处理器厂商开始采用插座或插槽来安装 CPU。 目前市场上的各种 CPU 种类繁多,所用的插座和插槽也很多,本文就给大家介绍一下各种 CPU 的插座和插槽。 Socket 1:Intel 开发的最古老的 CPU 插座,用于 486 芯片。 有 169 个脚,电压为 5V。 最多只能支持 DX4 的倍频。 Socket 2:Intel 在 Socket 1 的基础上作了小小的改进得到 Socket 2。 Socket 2有 238 个脚,电压仍为 5V。 虽然它还是 486 的插座,但只要稍作修改就可以支持 Pentium 了。 Socket 3:Socket 3 是在 Socket 2 的基础上发展起来的。 它有 237 个脚,电压为 5V,但可以通过主板上的跳线设为 3.3V。 它支持 Socket 2 的所有 CPU,还支持 5x86。 它是最后一种 486 插座。 Socket 4:Pentium 时代的 CPU 插座从 Socket 4 开始。 它有 273 个脚,工作电压为 5V。 正是因为它的工作电压太高,所以它并没有怎么流行就被 Socket 5 取代了。 Socket 4 只能支持 60-66MHz 的 Pentium。 Socket 5:Socket 5 有 320 个脚,工作电压为 3.3V。 它支持从 75MHz 到 133MHz 的 Pentium。 Socket 5 插座在早期的 Pentium 中非常流行。 Socket 6:看名字你也许会认为这是一个 Pentium 插座,但实际上 Socket 6 是一个 486 插座。 它有 235 个脚,工作电压为 3.3V,比 Socket 3 稍微先进一点。 不过随着 Pentium 的流行,486 很快就不再是市场的主流,Socket 6 也很快就被人遗忘了。 Socket 7:Socket 7是到目前为止最流行和应用最广泛的CPU插座。 它 有321个脚,工作电压范围为2.5-3.3V。 它支持从75MHz开始的所有Pentium处理器,包括Pentium MMX,K5, K6, K6-2, K6-3, 6x86, M2和M3。 Socket 7是由Intel发布的,事实上已成为当时的工业标准,可以支持IDT、 AMD和Cyrix的第六代CPU。 但Intel在开发自己的第六代CPU-Pentium II是,却决定舍弃Socket 7,另外开创一个局面。 Socket 8:Socket 8 是 Pentium Pro 专用的插座。 它有 387 个脚,工作电压为 3.1/3.3V。 它还为双处理器的主板做了特殊的设计。 但随着市场主流从 Pentium MMX 转向 Pentium II,Socket 8 很快就被遗忘了。 Socket 370 :Socket 370是Intel为赛扬A CPU提供的接口。 其后,Intel 也在不断转变着策略,新千年随着Intel Coppermine系列CPU新P Ⅲ和新赛扬 Ⅱ(均为 Socket 370 结构设计)的推出, Socket 370接口的主板一改低端形象,逐渐成为CPU接口结构主板的主流。 Socket 423:早期的奔腾 4系列处理器都采用Socket423封装。 Socket 478:基于Northwood核心的奔腾 4处理器必须使用Socket478封装,采用0.13微米工艺加工。 Slot 1:Slot 1 的出现彻底改变了 Intel 的 CPU 插座一贯的形状。 Intel 原来的 CPU 都是四方的,管脚在芯片的底部,安装时 CPU 插在主板的插座上。 而 Pentium II 不再是四方的了,处理器芯片焊在一块电路板上,然后这块电路板再插到主板的插槽中,这个插槽就是 Slot 1。 采用这种设计处理器内核和 L2 缓存之间的通信速度更快。 Slot 1 有 242 个脚,工作电压为 2.8-3.3V。 Slot 1 主要用于 P2,P3 和 Celeron(赛扬),另外还有 Socket 8 的转接卡用来安装 Pentium Pro。 Slot 2:Slot 2 是 Slot 1 的改进,主要用于 Xeon 系列处理器。 Slot 2 有 330 个脚,它和 Slot 1 之间最大的区别就在于 Slot 1 的 CPU 和 L2 缓存只能以 CPU 工作频率的一半进行通信,而 Slot 2 允许 CPU 和 L2 缓存以 CPU 工作频率进行通信。 Socket 370:从名字就可以看出 Socket 370 插座有 370 个管脚。 在 Intel 找到了把处理器内核和 L2 缓存很便宜的做在一起的方法之后,它的 CPU 插座从 Slot 回到了 Socket。 Socket 370 是基于 Socket 7 的,它不过只是在插座的四边每一边加了一排管脚。 首先采用 Socket 370 的是 PPGA 封装的 Celeron,接着是 FC-PGA 封装的 Pentium III 和 Celeron II。 同样也有 Socket 370 到 Slot 1 的转接卡。 目前 Intel 的主流 CPU 都是 Socket 370 类型的。 Slot A:由于 Intel 给 Slot 1 申请了很全面的专利,AMD 不能象从前那样照搬 Intel 的插座,所以 AMD 独立开发了 Slot A,Slot A 是 AMD 拥有独立知识产权的 CPU 插座,主要用于 Athlon 系列处理器。 它的设计和 Slot 1 类似,但采用的协议不一样,它用的是 EV6 总线协议。 采用 EV6 总线协议,CPU 和内存之间的工作频率可以达到 200MHz。 目前随着 Athlon 处理器越来越流行,Slot A 的主板也越来越多。 Socket A:当 Intel 从 Slot 转回 Socket 时,AMD 也亦步亦趋,从 Slot A 转回了 Socket A。 0.18 微米的 Athlon 和 Duron 都采用 Socket A 插座,它也支持 200MHz 以及 266MHz 的 EV6 总线。 与 Socket 370 不同的是,Socket 370 CPU 可以直接用 Socket 7 的散热器,而 Socket A 的散热器要稍作修改。 另外 AMD 没有提供 Socket A 到 Slot A 的转接卡。 Socket A 有 462 个脚,它与 Socket 370 不兼容。 目前 AMD 的主流 CPU 都是 Socket A 类型的。 Slockets:所谓的 Slocket 是 Slot 和 Socket 的结合体,从它的拼法上就可以看出。 它实质上是一个Slot 1 到 Socket 370 的转接卡,在不同的电平和接口之间进行转换。 有的 Slocket 可以插两个 CPU,还有的 Slocket 可以去除 CPU 的锁频,使超频更容易。 以上给大家介绍了一下已有的各种 CPU 插座和插槽,希望用户在升级的时候,注意要买自己的主板能支持的 CPU。 参考资料:硬件工程师教程

本文原创来源:电气TV网,欢迎收藏本网址,收藏不迷路哦!

相关阅读

添加新评论