带你领略FX技术的深度应用与高效性能优势 (带你领略风景)

带你领略FX技术的深度应用与高效性能优势

随着科技的快速发展,各类新兴技术层出不穷,其中FX技术以其独特的优势在众多领域中展现出强大的实力。
本文将带你领略FX技术的深度应用与高效性能优势,让我们一起探索这一技术的魅力。

一、FX技术概述

FX技术,即某种特定领域的专业技术或应用,近年来在各个领域中都得到了广泛的应用。
从金融、医疗到娱乐、教育,FX技术都在不断地推动着行业的进步。
其高效性能和深度应用使得它在各个领域中发挥着不可替代的作用。

二、深度应用

1. 金融行业

在金融行业,FX技术主要应用于交易和数据分析。
通过大数据分析和机器学习算法,FX技术能够实现对市场趋势的精准预测,从而提高交易效率和准确性。
FX技术还可以帮助金融机构实现风险管理的自动化,提高风险应对能力。

2. 娱乐产业

随着虚拟现实(VR)和增强现实(AR)技术的发展,FX技术在娱乐产业的应用也越来越广泛。
通过FX技术,我们可以创造出更加逼真的虚拟场景,为玩家带来沉浸式的游戏体验。
FX技术还可以用于游戏角色设计、场景渲染等方面,提高游戏的整体品质。

3. 医疗健康

在医疗领域,FX技术主要应用于医学影像处理、疾病诊断和治疗等方面。
通过深度学习和图像识别技术,FX技术可以帮助医生更准确地诊断疾病,提高诊疗效率。
FX技术还可以用于药物研发和生产过程,加速新药上市,为患者带来更多福音。

4. 教育培训

在教育领域,FX技术可以帮助学生更直观地理解复杂的概念和知识。
通过虚拟现实和增强现实技术,学生可以在三维空间中探索学习内容,提高学习效果。
FX技术还可以用于智能教学系统的开发,实现个性化教学,提高教育质量。

三、高效性能优势

1. 智能化决策

FX技术通过大数据分析和机器学习算法,能够实现智能化决策。
在金融交易中,这可以帮助投资者更准确地预测市场趋势,提高交易效率和准确性。
在医疗领域,这可以帮助医生更准确地诊断疾病,提高诊疗效率。

2. 提高生产效率

FX技术可以优化生产流程,提高生产效率。
在制造业中,通过引入FX技术,企业可以实现自动化生产,降低人力成本,提高生产效率。
FX技术还可以用于产品质量检测和控制,确保产品质量。

3. 优化用户体验

在娱乐产业中,FX技术可以创造出更逼真的虚拟场景和更丰富的交互体验,提高用户的满意度和忠诚度。
在教育领域,通过虚拟现实和增强现实技术,学生可以更直观地理解学习内容,提高学习效果和兴趣。

4. 强大的创新能力

FX技术的强大创新能力是其最重要的优势之一。
通过不断的技术创新和应用创新,FX技术能够推动各个行业的发展和进步。
在医疗、金融、教育等领域中,FX技术都能够带来新的突破和进步。

四、总结

FX技术的深度应用与高效性能优势使得它在各个领域中发挥着不可替代的作用。
从金融到娱乐,从医疗到教育,FX技术都在推动着行业的进步和发展。
未来,随着技术的不断进步和应用领域的拓展,FX技术将会在更多领域中发挥更大的作用。
让我们拭目以待,迎接FX技术带来的美好未来。


详细介绍一下AMD?

不知道你说的是厂商呢 还是它的产品 都说一下吧说起AMD不能不提它的冤家对头INTER Intel与AMD的竞争似乎从他们成立之初就已经注定。 1968年,Intel公司成立,随后1969年,AMD公司开始正式营业。 两家公司的“斗争”由此开始。 1971年,Intel研制的4004作为第一款微处理器开启了微型计算机发展的大门。 1978年,Intel出产第一颗16位微处理器8086,同时英特尔还生产出与之相配合的数学协处理器i8087,这两种芯片使用相互兼容的指令集。 人们将这些指令集统一称之为 x86指令集,该指令系统沿用至今。 接触电脑比较早的人,一定知道早期的计算机表示方法都是按照X86指令集定义,比如286、386、486。 当时各个公司出品的CPU都是一个名称,只是打的厂牌不同。 在微处理器发展初期,Intel提出的X86体系处理器远没有现在风光,当时IBM和苹果公司都推出了微处理器产品,在结构体系上互不相同,但性能差距不大,当时Intel对于AMD以及当时Cyrix等公司的态度十分微妙。 一方面他们推出的产品和Intel的产品完全兼容,在市场上对其产品销售有一定影响;另一方面,Intel也在借助这些公司的产品稳固X86体系的地位。 在Intel与AMD发展的初期,两家公司还有过鲜为人知的合作关系,为X86体系地位的建立做出了很大贡献,随着286 、386的不断推出,特别是到486的时代,x86体系已经雄霸民用微处理器市场,IBM只有在服务器市场坚守着自己的领地,苹果被限制在了某些专业领域维持其独特的风格。 在这段时间人们对于处理器的品牌概念十分淡漠,当时的消费者只知道购买的的康柏的486或者IBM的486,并不关心处理器的Intel还是AMD。 Intel凭借标准提出者的身份,一直是新产品的首发者,并且在市场份额上保持着老大的地位。 AMD只能跟在对手背后以完全兼容作为生存的标准,更像是一家生产厂,在竞争上也只能以低价作为俄日裔的手段,这也是为什么AMD一直以来跟人的感觉都是一个“高性价比”品牌,其实就是低价产品的美化说法。 被迫改变 1993年,一个值得纪念的年份。 在这一年,Intel一改以往的产品命名方式,对于人们认为该命名为586的产品,注册了独立的商标——Pentium(奔腾)。 此举不仅震惊了市场,更是给了AMD当头一棒,AMD到了必须走一条新路的时刻。 从Pentium(奔腾)开始,Intel的宣传攻势不断加强,当时提出的“Intel Inside”口号,现在已经深入人心,经历了Pentium II(奔腾2)和Pentium III(奔腾3)两代产品,Intel已经成为微处理器市场的霸主,一直同AMD并肩作战的Cyrix公司在Intel的强势下无奈选择下嫁VIA公司,退出了市场竞争。 面对Intel的Pentium(奔腾)系列处理器,AMD在产品上虽有K5、K6等系列对抗,但从性能上一直难与Intel抗衡,只有凭借低廉的价格在低端市场勉强维持生计,眼看着Intel不断扩大其市场占有率。 作为一家科技公司,AMD终于醒悟单纯的价格并不能使其产品得到用户的认可,拥有技术才是关键。 1999年,AMD推出了Athlon系列处理器,一举赢得了业界与消费者的关注,AMD彻底摆脱了自己跟随着的身份,腰身成为敢与Intel争锋的挑战者。 也是在这一年,Intel放弃了使用多年的处理器接口规格,AMD也第一次没有跟随Intel的变化,一直沿用原有接口规格,标志着AMD与Intel的竞争进入了技术时代。 新的开始 从Athlon开始,AMD似乎找到了感觉,接连在技术上与Intel展开竞争,率先进入G时代,无疑是这一段交锋中,AMD最值得骄傲的一点。 在比拼主频的这段时间,不仅让对手再不敢小觑这个对手,也让消费者认识了AMD,市场份额虽然还处在绝对劣势,但是在很多的调查中,AMD已经一举超过Intel成为消费者最关心的CPU品牌。 接下来AMD发起了一系列的技术攻势,在Intel推出奔奔腾4在主频上与AMD拉开距离后,AMD极力宣传CPU效能概念,在稳住市场的同时还概念了消费者盯住主频的消费习惯,为以后的发展奠定了良好的基础。 2003年,AMD首先提出了64位的概念,打了Intel一个措手不及。 当时64位技术还仅限于高端服务器处理器产品,在民用领域推行64位技术,使AMD第一次作为技术领先者在竞争中取得主动。 Intel当时十分肯定地说,64位技术进入民用市场最少还要几年时间,但是1年后,面对市场趋势不得不匆忙宣布推出64位处理器。 在这次64位的比拼中,AMD无论在时间还是技术上都占有明显优势,可惜天公不作美,由于微软公司的拖沓比预计晚了一年半的时间才推出支持64位的操作系统,而此时Intel的64微处理器也“恰好”上市了,AMD得到了一片叫好声但是“票房”惨淡,所幸AMD也许早料到了这一点,其向下兼容的64位技术在32位应用中性能不俗,没有落得更大遗憾。 在64位没有取得先机的Intel,在双核处理器上再下文章,领先AMD一个月推出双核产品。 AMD现在早已不是当初那个跟在人后的小公司,在推出自己的双核产品后,抛出了真假双核的辩论。 更令业界震惊的是2005年6月底,AMD毅然把Intel告上了法庭,直指对手垄断行业。 对于这场官司的胜负暂且不论,AMD的这种态度已经说明了一切,不再依靠跟随对手,不再依靠低价抢占市场,AMD现在要求的事平等,是站在同一赛场上的对手。 在法庭外的市场上,AMD再一次拿起了价格这柄利器。 在过去的几年中,由于主频竞争发展缓慢,因而Intel公司和AMD公司之间几乎没有进行过大幅度的降价竞争。 但是随着双核处理技术的发展,两家公司与业内的其他竞争对手都提高了生产的效率,产品价格重新成为了Intel公司与AMD公司争夺市场的主要战场。 市场调研机构Mercury Research公布的x86处理器市场2005年第一季调查。 结果表示Intel还是这个市场的头龙占市场81.7%,比上季下降0.5%,而AMD为16.9%上升了0.3%,在战斗中两个对手都在不断成长,似乎AMD要走的路还要更远一点。 产品对比AMD与Intel的产品线概述AMD目前的主流产品线按接口类型可以分成两类,分别是基于Socket 754接口的中低端产品线和基于Socket 939接口的中高端产品线;而按处理器的品牌又分为Sempron、Athlon 64、Opteron系列,此外还有双核的Athlon 64 X2系列,其中Sempron属于低端产品线,Athlon 64,Opteron和Athlon 64 X2属于中高端产品线。 这样看来,AMD家族同一品牌的处理器除了接口类型不同之外,同时还存在着多种不同的核心,这给消费者带来了不小的麻烦。 可以说AMD现在的产品线是十分混乱的。 与AMD复杂的产品线相比,Intel的产品线可以说是相当清晰的。 Intel目前主流的处理器都采用LGA 775接口,按市场定位可以分成低端的Celeron D系列、中端的Pentium 4 5xx系列和高端的Pentium 4 6xx系列、双核的Pentium D系列。 除了Pentium D处理器以外,其他目前在市面上销售的处理器都是基于Prescott核心,主要以频率和二级缓存的不同来划分档次,这给了消费者一个相当清晰的印象,便于选择购买。 (鉴于目前市场上销售的CPU产品都已经全面走向64位,32位的CPU无论在性能或者价格上都不占优势,因此我们所列举的CPU并不包括32位的产品。 同样道理,AMD平台的Socket A接口和Intel的Socket 478接口的产品都已经在两家公司的停产列表之上,而AMD的Athlon 64 FX系列和Intel的Pentium XE/EE系列以及服务器领域的产品也不容易在市面上购买到,因此也不在本文谈论范围之内。 )2. AMD与Intel产品线对比双核处理器可以说是2005年CPU领域最大的亮点。 毕竟X86处理器发展到了今天,在传统的通过增加分支预测单元、缓存的容量、提升频率来增加性能之路似乎已经难以行通了。 因此,当单核处理器似乎走到尽头之际, Intel、AMD都不约而同地推出了自家的双核处理器解决方案:Pentium D、Athlon 64 X2!所谓双核处理器,简单地说就是在一块CPU基板上集成两个处理器核心,并通过并行总线将各处理器核心连接起来。 双核其实并不是一个全新概念,而只是CMP(Chip Multi Processors,单芯片多处理器)中最基本、最简单、最容易实现的一种类型。 处理器协作机制:AMD Athlon 64 X2 Athlon 64 X2其实是由Athlon 64演变而来的,具有两个Athlon 64核心,采用了独立缓存的设计,两颗核心同时拥有各自独立的缓存资源,而且通过“System Request Interface”(系统请求接口,简称SRI)使Athlon 64 X2两个核心的协作更加紧密。 SRI单元拥有连接到两个二级缓存的高速总线,如果两个核心的缓存数据需要同步,只须通过SRI单元完成即可。 这样子的设计不但可以使CPU的资源开销变小,而且有效的利用了内存总线资源,不必占用内存总线资源。 Pentium D 与Athlon 64 X2一样,Pentium D两个核心的二级高速缓存是相互隔绝的,不过并没有专门设计协作的接口,而只是在前端总线部分简单的合并在一起,这种设计的不足之处就在于需要消耗大量的CPU周期。 即当一个核心的缓存数据更改之后,必须将数据通过前端总线发送到北桥芯片,接着再由北桥芯片发往内存,而另外一个核心再通过北桥读取该数据,也就是说,Pentium D并不能像Athlon 64 X2一样,在CPU内部进行数据同步,而是需要通过访问内存来进行同步,这样子就比Athlon 64 X2多消耗了一些时间。 二级缓存对比:二级缓存对于CPU的处理能力影响不小,这一点可以从同一家公司的产品线上的高低端产品当中明显的体现出来。 二级缓存做为一个数据的缓冲区,其大小具有相当重大的意义,越大的缓存也就意味着所能容纳的数据量越多,这就大大地减轻了由于总线与内存的速度无法配合CPU的处理速度,而浪费了CPU的资源。 事实上也证明了,较大的高速缓存意味着可以一次交换更多的可用数据,而且还可以大大降低高速缓存失误情况的出现,以及加快数据的访问速度,使整体的性能更高。 就目前而言,AMD的CPU在二级高速缓存的设计上,由于制造工艺的原因,还是比较小,高端的最高也只达到2M,不少中低端产品只有512K,这对于数据的处理多多少少会带来一些不良的影响,特别是处理的数据量较大的时候。 Intel则相反,在这方面比较重视,如Pentium D核心内部便集成了2M的二级高速缓存,这在处理数据的时候具有较大的优势,在高端产品中,甚至集成4M的二级高速缓存,可以说是AMD的N倍。 在一些实际测试所得出来的数据也表明,二级缓存较大的Intel分数要高于二级缓存较小的AMD不少。 内存架构对比:由Athlon 64开始,AMD便开始采用将内存控制器集成于CPU内核当中的设计,这种设计的好处在于,可以缩短CPU与内存之间的数据交换周期,以前都是采用内存控制器集成于北桥芯片组的设计,改成集成于CPU核心当中,这样一来CPU无需通过北桥,直接可以对内存进行访问操作,在有效的提高了处理效率的同时,还减轻了北桥芯片的设计难度,使主板厂商节约了成本。 不过这种设计在提高了性能的同时,也带来了一些麻烦,一个是兼容性问题,由于内存控制器集成于核心之内,不像内置于北桥芯片内部,兼容性较差,这就给用户在选购内存的时候带来一些不必要的麻烦。 除了内存兼容性较差之外,由于采用核心集成内存控制器的缘故,对于内存种类的选择也有着很大的制约。 就现在的内存市场上来看,很明显已经像DDR2代过渡,而到目前为止Athlon 64所集成的还只是DDR内存控制器,换句话说,现有的Athlon 64不支持DDR2,这不仅对性能起到了制约,对用户选择上了造成了局限性。 而Intel的CPU却并不会有这样子的麻烦,只需要北桥集成了相应的内存控制器,就可以轻松的选择使用哪种内存,灵活性增强了不少。 还有一个问题,如若用户采用集成显卡时,AMD的这种设计会影响到集成显卡性能的发挥。 目前集成显卡主要是通过动态分配内存做为显存,当采用AMD平台时,集成在北桥芯片当中的显卡核心需要通过CPU才能够对内存操作,相比直接对内存进行操作,延迟要长许多。 平台带宽对比:随着主流的双核处理器的到来,以及945、955系列主板的支持,Intel的前端总线将提升到1066Mhz,配合上最新的DDR2 667内存,将I/O带宽进一步提升到8.5GB/S,内存带宽也达到了10.66GB/S,相比AMD目前的8.0GB/S(I/O带宽)、6.4GB/S(内存带宽)来说,Intel的要远远高出,在总体性能上要突出一些。 功耗对比:在功耗方面,Intel依然比较AMD的要稍为高一些,不过,近期的已经有所好转了。 Intel自推出了Prescott核心,由于采用0.09微米制程、集成了更多的L2缓存,晶体管更加的细薄,从而导致漏电现象的出现,也就增加了漏电功耗,更多的晶体管数量带来了功耗及热量的上升。 为了改进Prescott核心处理器的功耗和发热量的问题,Intel便将以前应用于移动处理器上的EIST(Enhanced Intel Speedstep Technolog)移植到目前的主流Prescott核心CPU上,以保证有效的控制降低功耗及发热量。 而AMD方面则加入了Cool ‘n’ Quiet技术,以降低CPU自身的功耗,其工作原理与Intel的SpeedStep动态调节技术相似,都是通过调节倍频等等来实现降低功耗的效果。 实际上,Intel的CPU功率之所以目前会高于AMD,其主要的原因在于其内部集成的晶体管远远要比AMD的CPU多得多,再加上工作频率上也要比AMD的CPU高出不少,这才会变得功率较大。 不过在即将来临的Intel新一代CPU架构Conroe,这个问题将会得到有效的解决。 其实Conroe是由目前的Pentium M架构变化而来的,它延续了Pentium M的绝大多数优点,如功耗更加低,在主频较低的情况下已然能够获得较好的性能等等这些。 可以看出,未来Intel将把移动平台上的Conroe移植到桌面平台上来,取得统一。 流水线对比:自踏入P4时代以来,Intel的CPU内部的流水线级要比AMD的高出一些。 以前的Northwood和Willamette核心的流水线为20级,相对于当时的PIII或者Athlon XP的10级左右的流水线来说,增长了几乎一倍。 而目前市场上采用Proscott核心CPU流水线为31级。 很多人会有疑问,为何要加长流水线呢?其实流水线的长短对于主频影响还是相当大的。 流水线越长,频率提升潜力越大,若一旦分支预测失败或者缓存不中的话,所耽误的延迟时间越长,为此在Netburst架构中,Intel将8级指令获取/解码的流水线分离出来,而Proscott核心有两个这样的8级流水线,因此严格说起来,Northwood和Willamette核心有28级流水线,而Proscott有39级流水线,是现在Athlon 64(K8)架构流水线的两倍。 相信不少人都知道较长流水线不足之处,不过,是否有了解过较长流水线的优势呢?在NetBurst流水线内部功能中,每时钟周期能够处理三个操作数。 这和K7/K8是相同的。 理论上,NetBurst架构每时钟执行3指令乘以时钟速度,便是最后的性能,由此可见频率至上论有其理论基础。 以此为准来计算性能的话,则K8也非NetBurst对手。 不过影响性能的因素有很多,最主要的就是分支预测失败、缓存不中、指令相关性三个方面。 这三个方面的问题每个CPU都会遇到,只是各种解决方法及效果存在着差异而已。 而NetBurst天生的长流水线既是它的最大优势,也是它的最大劣势。 如果一旦发生分支预测失败或者缓存不中的情况,Prescott核心就会有39个周期的延迟。 这要比其他的架构延迟时间多得多。 不过由于其工作主频较高,加上较大容量的二级高速缓存在一定程度上弥补了NetBurst架构的不足之处。 不过流水线的问题在Intel的新一代CPU架构Conroe得到了较好的解决,这样子以来,大容量的高速缓存,以及较低的流水线,配合双核心设计,使得未来的Intel CPU性能更加优异。 “真假双核”在双核处理器推广的过程中,我们听到了一些不和谐的音符:AMD宣扬自己的双核Opteron和Athlon-64 X2才符合真正意义上的双核处理器准则,并隐晦地表示Intel双核处理器只是“双芯”,暗示其为“伪双核”,声称自己的才是“真双核”,真假双核在外界引起了争议,也为消费者的选择带来了不便。 AMD认为,它的双核之所以是“真双核”,就在于它并不只是简单地将两个处理器核心集成在一个硅晶片(或称DIE)上,与单核相比,它增添了“系统请求接口”(System Request Interface,SRI)和“交叉开关”(Crossbar Switch)。 它们的作用据AMD方面介绍应是对两个核心的任务进行仲裁、及实现核与核之间的通信。 它们与集成的内存控制器和HyperTransport总线配合,可让每个核心都有独享的I/O带宽、避免资源争抢,实现更小的内存延迟,并提供了更大的扩展空间,让双核能轻易扩展成为多核。 与自己的“真双核”相对应,AMD把英特尔已发布的双核处理器——奔腾至尊版和奔腾D处理器采用的双核架构称之为“双芯”。 AMD称,它们只是将两个完整的处理器核心简单集成在一起,并连接到同一条带宽有限的前端总线上,这种架构必然会导致它们的两个核心争抢总线资源、从而影响性能,而且在英特尔这种双核架构上很难添加更多处理器核心,因为更多的核心会带来更为激烈的总线带宽争抢。 而根据前面我们提到CMP的概念,笔者认为英特尔和AMD的双核处理器,以及它们未来的多核处理器实际上都属于CMP架构。 而对双核处理器的架构或标准,业界并无明确定义,称双核处理器存在“真伪”纯属AMD的一家之言,是一种文字游戏,有误导消费者之嫌。 目前业界对双核处理器的架构并没有共同标准或定义,自然也就没有什么真伪之分。 CMP的原意就是在一个处理器上集成多个处理器核心,在这一点上AMD与英特尔并无分别,不能说自己的产品集成了仲裁等功能就是“真双核”,更没有理由称别人的产品是“双芯”或“伪双核”。 此外在不久前AMD举办的“我为双核狂”的活动中,有不少玩家指出,AMD的双核处理器在面对多任务环境下,无法合理分配CPU运算资源,导致运行同样的程序却会得到不同的时间,AMD的双核并不稳定。 从不少媒体的评测还可以看到,AMD的双核在单程序运行的效率要高于Intel处理器,但是在多任务的测试中则全面落后!由此可见,对于真假双核之说,笔者认为只是一种市场的抄作,并不是一种客观的性能表现。 从真正的双核应用上来看(双核的发展主要是由于各种程序的同时运行,即多程序同时运行的要求),Intel的双核更符合多程序的发展需求。 高性能的基石——Intel及AMD平台对比二、高性能的基石——Intel及AMD平台对比看完上面的介绍,我们可以看到无论Intel还是AMD都提供了丰富的产品,而至于二者在处理器架构上的优劣毕竟不是片言只字可以言明,也不可以片面的说谁的架构更为优胜,因为二者都有各自的优势之处,也有其不足。 但无论如何,对于CPU来说,一个产品优秀与否,性能如何,都必须要有其发挥的平台,接下来,我们来看看两家产品的主流平台。 1. 平台对比之Intel篇在刚过去的2005年中,Intel处理器在产品规格与规划两方面对整个芯片技术的发展都做出了巨大的贡献,对用户的最终选择有着直接的影响。 首先,尽管LGA775接口较脆弱的问题曾一度过引发争议,但桌面级CPU从Socket 478向LGA 775过渡已是不可逆转;其次,处理器的FSB频率再一次被拉高,1066MHz已成为新一代处理器的标准;再次,双核CPU的上市引发了不小的轰动,普及也只是时间的问题。 与之对应,第一代LGA 775接口芯片组——Intel 915/925系列已是昨日黄花,945/955系列已经作为新的主流取而代之。 集成HD音效技术、双通道DDR2内存架构、千兆网卡、SATA2技术,RAID5等一系列过去只能在高端主板上才有的技术现在已经成为标准配置。 在PCI-E显卡接口已经成为市场主流的时候,市场上有了更多的厂商加入其中,Intel芯片组一家独大的情况已经有所改变,NVIDIA和ATI都推出了相应产品,功能规格毫不逊色;VIA和SIS等台系厂商也有其“特色产品”,市场空前繁荣。 Intel Intel处理器搭配Intel芯片组一向是DIYer的首选。 2005年,Intel沿袭了其一贯的特点:新品推出速度快,档次定位明确,新技术大量使用等等。 目前Intel的高端桌面芯片组当属955X和975X系列,作为高端产品,955X具备了945系列的主要功能,但抛弃了过时的533MHz FSB。 加之其支持8GB内存、ECC校验技术和内存加速技术,这些特点令其与主流产品拉开了距离。 975X则是955X的加强版,可以完美支持Intel所有桌面处理器,包括Pentium EE。 更重要的是支持双PCI-E 8X显卡并行技术。 925X/XE是上一代的高端产品,但由于缺乏对双核心的支持,令其瞬间失势。 主流市场一向是Intel的中流砥柱。 945系列是其巩固这一市场的利器,包括945P/PL/G/GZ等型号,分别用于不同需求的用户。 945系列支持FSB 533-1066的处理器,包括Celeron D、Pentium 4和Pentium D等在内的Intel主流CPU,945系列已全面转向DDR2,并支持Intel Flex Memory技术,可使不同容量的内存构成双通道模式,兼容性得以提高。 随着945系列的大量铺货,曾经的主流产品915系列不可避免的被推到低端市场。 915系列包括915P/PL/G/GV/GL五种型号,针对不同的用户,但目前该系列产品存在不同程度的缺货,售价与945系列相差也不是太大,而且也传言Intel即将将其停产,故不推荐购买。 NVIDIA目前NVIDIA发布的Intel平台的芯片组有NF4 SLI IE,NF4 SLI XE,NF4 Ultra等几款,都是作为中高端产品出现在市场的,其中的NF4 SLI IE更是第一个把NVIDIA在AMD平台上无限风光的SLI技术引入了INTEL平台,让INTEL平台也能实现双显卡运作的模式。 而更具革命性的是,NF4 SLI IE芯片组在打开双显卡模式的时候,能够运行在PCI-E 16X+16X的高显示带宽之上,性能提升效果更加明显。 这样的技术优势,即便是说AMD平台上的NF4 SLI芯片组也已经难以实现(NF4 SLI只能打开PCI-E 8X+8X的带宽),缺乏技术授权的众INTEL芯片组更是无可奈何。 ATI目前ATI在Intel平台的主力芯片组是Radeon Xpress 200 For Intel platforms系列,而支持交火技术的Radeon Xpress 200 CrossFire则定位高端。 Radeon Xpress 200 For Intel platforms芯片组的主板采用南北桥分离设计,包括RS400、RC400、RC410和RXC410四款产品。 北桥集成X300显示核心,并具备Intel平台的几乎所有主流技术支持,兼容性十分强大。 Radeon Xpress 200 CrossFire在Intel平台的产品称作RD400,基本架构与RS400相仿,最大的特点是支持ATI的CrossFire显卡并行技术。 但ATI的自家的南桥功能有限,众多厂商会采用ULi M1573/1575替代作为折衷方案。 VIA、SIS VIA和SiS在Intel平台也是有相当资历的元老级芯片组生产商,二者主要为Intel平台提供中低端的产品。 VIA目前在Intel平台的主要产品有PT880 PRO和PT894,集成显卡的最新产品为P4M890。 SiS则提供SiS 656/649等产品。 2. 平台对比之AMD篇随着K7核心退出历史舞台,K8处理器已经顺利完成过渡。 与此同时,Socket 754和Socket 939平台也发生着分化——Socket939定位于主流桌面和入门级服务器市场,Socket 754则定位于低端平台。 与之搭配的芯片组延续着显示核心市场的明争暗斗——NVIDIA于ATI的大战愈演愈烈,加上久经沙场的VIA和SiS,AMD处理器配套芯片组市场从未如此热闹。 NVIDIANVIDIA是AMD平台中芯片组最多的一家厂商,从集成显示核心的入门级产品到支持显卡并行技术的高端产品都可以找到NVIDIA的身影。 可以说NVIDIA芯片组是AMD平台中占绝大部分市场份额的产品,也是众多DIYer眼中AMD处理器的最佳搭档。 目前NVIDIA在AMD平台的芯片组包括NF4-4X、NF4标准版、NF4 Ultra、NF4 SLI以及整合图形核心的C51系列。 其中NF4-4X主要采用Socket 754接口,针对低端及入门级用户,主要搭配Socket 754接口的Sempron和Athlon 64处理器。 NF4 Ultra和NF4 SLI则主要采用Socket 939接口,针对中高端用户。 其中部分产品更是用料十足,配置豪华,是骨灰级玩家的选择。 C51系列包括C51G(GeForce 6100)和C51PV(GeForce 6150)两种北桥芯片,搭配nForce 410 MCP和nForce 430 MCP两种南桥,为AMD提供整合显示芯片的主板。 其集成的显示芯片性能已经不再是鸡肋,紧跟主流显卡脚步。 ATIATI作为NVIDIA在显卡市场的主要竞争对手,在AMD平台中的角色也非常强,但竞争力就要比在显卡市场下降不少。 作为对NVIDIA SLI技术的回应,ATI推出了Crossfie芯片组与之抗衡,而且其双显卡并行的限制比SLI要宽松很多, Crossfie技术对游戏的兼容性很好,几乎每款游戏都可以从中获得性能提升。 但目前在市面上可以买到的Crossfie主板远没有SLI的多,ATI在这方面推广力度似乎不够。 此外在中低端市场,ATI提供了Radeon Xpress 200系列,包括整合显示核心的RS480/482和采用独立显卡的RX480,支持单PCI-E x16显卡插槽,支持两个以上的SATA接口,支持千兆网卡,性能中规中举。 平台综述目前市场上Intel和AMD平台的主要产品都已经略为介绍,我们可以看到,AMD处理器目前使用的芯片组绝大多数由其合作伙伴设计,比如nVidia、ATI、VIA等等,他们设计好后再找其他企业代工生产。 这样一来,AMD在实际的市场操作方面就有很多困难,比如说在平台的整体价格控制方面无法做到统一调控,另外很可能会出现主板供应跟不上CPU的市场出货率,或者大于CPU的供应量等等。 虽然AMD本身也有配合自己产品的平台,但是高昂的成本、不实用的功能也只能使它成为评测室中的一道风景。 从另外一个角度看,AMD的主流处理器产品拥有Socket 754和Socket 939两个平台,而在两个平台的产品针对不同的消费者

越野车资料【详细】

狮虎兽——公狮与母虎产下的幼仔,身形如狮,皮毛似虎,是异常珍稀的动物,作为“草原之王”和“森林之王”的后代,它们一出身就具备皇家贵族血统,兼顾了狮子的速度与老虎的凶猛。 一个世界著名的跑车生产厂涉足了越野车的领域,最后的结果会不会也是两者兼顾呢? 在1972年,保时捷的4轮驱动技术就已装配到911的发动机上,然而费迪南德.保时捷怎么也不会愿意在一辆越野车上实现保时捷的经典设计。 到了90年代,SUV已在欧洲盛极一时,奔驰、宝马、沃尔沃这些老牌的轿车生产商纷纷推出了自己的SUV车型,占领了高档SUV的市场,那些钟情保时捷的车主们也急切的盼望着有着深厚跑车传统的保时捷能带给他们惊喜,虽然959曾经在巴黎-达喀尔拉力赛上取得过胜利,然而人们更想要一辆“亲民”的越野车,V8双Turbo引擎,最高时速266km/h,主动悬架系统,2002年的9月,凯宴正式在全球亮相后,被认为是目前全球跑得最快的SUV。 动力强劲,酣畅淋漓我不得不先说说它的动力,因为从坐到驾驶室的那一刻,它在我的眼中变成了一头跃跃欲试的猛兽,331kW/600rpm的极限功率在我所知的任何一条道路上恐怕都没法实现,而620Nm/2250-4750的强大扭矩和如此宽的区间丝毫不比911差到哪去,0-100km/h加速只有5.6秒让我怀疑它到底还是不是一辆SUV,总之,在大脑片刻的混乱后,还是决定赶紧感受一下它的实力。 我们找了一条车辆很少眷顾的公路,大概有六、七百米长,紧接着是一个约120度的大弯,前方又是一望无际的公路,无疑这是我们能找到的条件最好的测试地点了,我首要的目标就是要体验5.6秒的极限加速性,挂上D档,已做好准备的我听着发动机舱传来的低沉、平和的声音似乎还有些怀疑,于是,定了定神,一脚油门踩到底,车身一顿咆哮之后蹿出,源源不断的驱动力旋即将我紧紧压在椅背上,只觉得血往后涌,眼前的道路飞速向两边掠过,变得越来越窄,在这短短的几秒钟内,我的大脑一片空白,直到同事提醒我已经到了100km/h,我渐渐的把速度降下来,感觉又回到了人间。 我们又反复地进行了几次测试,分别用手动和自动模式,用最简陋的秒表得出了最终的结果:6.8秒。 这款V8双涡轮增压发动机最大的优势体现在强大、持久的扭矩,这种特质在车辆的中段加速过程中会有让人吃惊的表现,还有保时捷独特的TiPtronic6档自动变速器也是我们期待已久的,在下午的五环路上,车辆的密度很小,我们把车速控制在110km/h的水平,看看前方没有什么车,又是一脚油门踩到底,变速器的反应很快,立刻从5档降到了3档,转速也从2500rpm攀升至5000rpm左右,更刺激的是Tiptronic变速箱一直保持在3档的位置,让涡轮增压的发动机尽情的输出强大的扭力,瞬间我们赶上了前面的车辆,在超越的一刹那,我听到了似乎是气流相交时的声浪,而发动机似乎还有很大的动力储备,看一眼速度表,已经在200km/h以上了,而心中的快感也战胜了开始时的恐惧。 聪明的悬架要保持既有跑车的速度,又有越野车的通过性,保时捷选择了两者兼顾的主动悬架控制系统,凯宴的空气悬架有六种高度可以选择,当然还是智能的。 不是你选择了越野高度就可以高速路上飙车,选择了最低行车高度又去越野。 卡宴的正常离地间隙是217mm,刚才在高速上狂飙的时候,时速125km/.h时自动降低到190mm,时速210km/.h降低到179mm。 只有在时速不超过80km/.h时你才可以把底盘升高到243mm,在极端恶劣的路况可以提升到273mm。 此时的接近角是32.4度,离去角是27.3度,涉水深度达到555mm。 我们实在不忍在极端险恶的路况下“虐待”它,但是要想领略到出色的越野性能,我们在开发区附近找了一片满是碎石和杂草的旷野,下面是黄土,松软不实。 它不仅要求动力储备充足,附着力和扭矩分配也至关重要。 坑洼之间凯宴像一部坦克轰然而过。 保时捷主动悬挂管理系统(PASM)在不同路面通过空气弹簧自动对车身高度进行调整,保证行驶的稳定性和通过能力。 保时捷做四驱不是外行,911的全轮驱动系统是久负盛名的。 卡宴的四驱系统带有可锁定的中央差速器以及一个越野低速档位,正常情况下用2档起步,需要大的牵引力输出可使用1档来应付陡坡或重载。 凶猛的外形精致的内饰第一眼看到凯宴,就让我觉得它像某种野兽,自凯宴诞生以来,人们对它外型的评论一直是褒贬不一,保守的一方就对它继承传统的设计大家赞赏,认为保时捷就是保时捷,不管推出什么车型,应该能让人们一眼就看出它的出身;而激进的一方却认为它模仿轿车的程度太大了,从前面看,就是一辆把底盘升高的911,没有丝毫的创新。 我想如果按照本文的题目去理解这辆车的设计,就会体会设计者的用心,由于出身于以生产超级跑车著称的保时捷公司,凯宴虽然身为SUV,却也不可避免地带有许多跑车的特质。 典型的保时捷风格的前大灯加上形如血盆大口的进气口,构成了凯宴的前脸,本来保时捷跑车都是后置发动机,前脸没有进气格栅就是保时捷的特色。 卡宴没办法将发动机挪到后面去了,前面的造型就夸张了。 比起夸张的前脸,车身和尾部的造型就显得保守多了,甚至有些平庸,车门和脚踏板处大面积的镀铬装饰条显出了强烈的贵族血统,而尾部和大众的途锐有些相仿。 不管怎么说,这是一辆内涵极深的SUV,外表的平淡不会让喜爱它的人却步。 在内饰上,设计师们煞费苦心地把跑车的内容不留破绽地移植进宽敞的SUV。 凯宴采用5人座设计,与一般SUV没什么不同,风格则是完全的保时捷式的感受,左置点火开关传递出鲜明的保时捷风格,同基调的双色内装,车门内饰板、座椅、方向盘、排档杆均以真皮包覆,铝白色车内饰板,3环式仪表组,前座左右独立调整的恒温空调,多功能方向盘,10个喇叭的音响系统、液晶综合资讯显示中控台荧幕均列为标准配备,各种控制按钮、拨杆密布:车身高度控制、避震器阻尼、驱动方式选择等等,所有功能挨个试一遍都要颇花些时间,整体感受一如现行车系一般,给人略具冷调但却又十足的机能化,呈现出一种斯巴达式的精致。 后记当它征服了瑞典的雪地、迪拜的大漠和地球上最险峻的山路时,它就是一辆名副其实的越野车;当它在纽博格林德塞岛上所向披靡时,它则是一辆不折不扣的赛车;当它作为魏斯阿赫研发中心的设计成果,它的名字只有一个:保时捷。 这辆饱含速度的激情和越野的魅力的结合体真的犹如世所罕见的狮虎兽,在经典迭出的茫茫车海中显得特立独行。 狮虎兽——公狮与母虎产下的幼仔,身形如狮,皮毛似虎,是异常珍稀的动物,作为“草原之王”和“森林之王”的后代,它们一出身就具备皇家贵族血统,兼顾了狮子的速度与老虎的凶猛。 一个世界著名的跑车生产厂涉足了越野车的领域,最后的结果会不会也是两者兼顾呢? 在1972年,保时捷的4轮驱动技术就已装配到911的发动机上,然而费迪南德.保时捷怎么也不会愿意在一辆越野车上实现保时捷的经典设计。 到了90年代,SUV已在欧洲盛极一时,奔驰、宝马、沃尔沃这些老牌的轿车生产商纷纷推出了自己的SUV车型,占领了高档SUV的市场,那些钟情保时捷的车主们也急切的盼望着有着深厚跑车传统的保时捷能带给他们惊喜,虽然959曾经在巴黎-达喀尔拉力赛上取得过胜利,然而人们更想要一辆“亲民”的越野车,V8双Turbo引擎,最高时速266km/h,主动悬架系统,2002年的9月,凯宴正式在全球亮相后,被认为是目前全球跑得最快的SUV。 动力强劲,酣畅淋漓我不得不先说说它的动力,因为从坐到驾驶室的那一刻,它在我的眼中变成了一头跃跃欲试的猛兽,331kW/600rpm的极限功率在我所知的任何一条道路上恐怕都没法实现,而620Nm/2250-4750的强大扭矩和如此宽的区间丝毫不比911差到哪去,0-100km/h加速只有5.6秒让我怀疑它到底还是不是一辆SUV,总之,在大脑片刻的混乱后,还是决定赶紧感受一下它的实力。 我们找了一条车辆很少眷顾的公路,大概有六、七百米长,紧接着是一个约120度的大弯,前方又是一望无际的公路,无疑这是我们能找到的条件最好的测试地点了,我首要的目标就是要体验5.6秒的极限加速性,挂上D档,已做好准备的我听着发动机舱传来的低沉、平和的声音似乎还有些怀疑,于是,定了定神,一脚油门踩到底,车身一顿咆哮之后蹿出,源源不断的驱动力旋即将我紧紧压在椅背上,只觉得血往后涌,眼前的道路飞速向两边掠过,变得越来越窄,在这短短的几秒钟内,我的大脑一片空白,直到同事提醒我已经到了100km/h,我渐渐的把速度降下来,感觉又回到了人间。 我们又反复地进行了几次测试,分别用手动和自动模式,用最简陋的秒表得出了最终的结果:6.8秒。 这款V8双涡轮增压发动机最大的优势体现在强大、持久的扭矩,这种特质在车辆的中段加速过程中会有让人吃惊的表现,还有保时捷独特的TiPtronic6档自动变速器也是我们期待已久的,在下午的五环路上,车辆的密度很小,我们把车速控制在110km/h的水平,看看前方没有什么车,又是一脚油门踩到底,变速器的反应很快,立刻从5档降到了3档,转速也从2500rpm攀升至5000rpm左右,更刺激的是Tiptronic变速箱一直保持在3档的位置,让涡轮增压的发动机尽情的输出强大的扭力,瞬间我们赶上了前面的车辆,在超越的一刹那,我听到了似乎是气流相交时的声浪,而发动机似乎还有很大的动力储备,看一眼速度表,已经在200km/h以上了,而心中的快感也战胜了开始时的恐惧。 聪明的悬架要保持既有跑车的速度,又有越野车的通过性,保时捷选择了两者兼顾的主动悬架控制系统,凯宴的空气悬架有六种高度可以选择,当然还是智能的。 不是你选择了越野高度就可以高速路上飙车,选择了最低行车高度又去越野。 卡宴的正常离地间隙是217mm,刚才在高速上狂飙的时候,时速125km/.h时自动降低到190mm,时速210km/.h降低到179mm。 只有在时速不超过80km/.h时你才可以把底盘升高到243mm,在极端恶劣的路况可以提升到273mm。 此时的接近角是32.4度,离去角是27.3度,涉水深度达到555mm。 我们实在不忍在极端险恶的路况下“虐待”它,但是要想领略到出色的越野性能,我们在开发区附近找了一片满是碎石和杂草的旷野,下面是黄土,松软不实。 它不仅要求动力储备充足,附着力和扭矩分配也至关重要。 坑洼之间凯宴像一部坦克轰然而过。 保时捷主动悬挂管理系统(PASM)在不同路面通过空气弹簧自动对车身高度进行调整,保证行驶的稳定性和通过能力。 保时捷做四驱不是外行,911的全轮驱动系统是久负盛名的。 卡宴的四驱系统带有可锁定的中央差速器以及一个越野低速档位,正常情况下用2档起步,需要大的牵引力输出可使用1档来应付陡坡或重载。 凶猛的外形精致的内饰第一眼看到凯宴,就让我觉得它像某种野兽,自凯宴诞生以来,人们对它外型的评论一直是褒贬不一,保守的一方就对它继承传统的设计大家赞赏,认为保时捷就是保时捷,不管推出什么车型,应该能让人们一眼就看出它的出身;而激进的一方却认为它模仿轿车的程度太大了,从前面看,就是一辆把底盘升高的911,没有丝毫的创新。 我想如果按照本文的题目去理解这辆车的设计,就会体会设计者的用心,由于出身于以生产超级跑车著称的保时捷公司,凯宴虽然身为SUV,却也不可避免地带有许多跑车的特质。 典型的保时捷风格的前大灯加上形如血盆大口的进气口,构成了凯宴的前脸,本来保时捷跑车都是后置发动机,前脸没有进气格栅就是保时捷的特色。 卡宴没办法将发动机挪到后面去了,前面的造型就夸张了。 比起夸张的前脸,车身和尾部的造型就显得保守多了,甚至有些平庸,车门和脚踏板处大面积的镀铬装饰条显出了强烈的贵族血统,而尾部和大众的途锐有些相仿。 不管怎么说,这是一辆内涵极深的SUV,外表的平淡不会让喜爱它的人却步。 在内饰上,设计师们煞费苦心地把跑车的内容不留破绽地移植进宽敞的SUV。 凯宴采用5人座设计,与一般SUV没什么不同,风格则是完全的保时捷式的感受,左置点火开关传递出鲜明的保时捷风格,同基调的双色内装,车门内饰板、座椅、方向盘、排档杆均以真皮包覆,铝白色车内饰板,3环式仪表组,前座左右独立调整的恒温空调,多功能方向盘,10个喇叭的音响系统、液晶综合资讯显示中控台荧幕均列为标准配备,各种控制按钮、拨杆密布:车身高度控制、避震器阻尼、驱动方式选择等等,所有功能挨个试一遍都要颇花些时间,整体感受一如现行车系一般,给人略具冷调但却又十足的机能化,呈现出一种斯巴达式的精致。 后记当它征服了瑞典的雪地、迪拜的大漠和地球上最险峻的山路时,它就是一辆名副其实的越野车;当它在纽博格林德塞岛上所向披靡时,它则是一辆不折不扣的赛车;当它作为魏斯阿赫研发中心的设计成果,它的名字只有一个:保时捷。 这辆饱含速度的激情和越野的魅力的结合体真的犹如世所罕见的狮虎兽,在经典迭出的茫茫车海中显得特立独行。

游戏主机性能谎言的正文

一款游戏的画面效果其实是由游戏引擎和显卡共同决定的,二者之间的分工与协同非常重要.在PC于家用游戏机”不相往来”的时代,游戏引擎与显卡的关系比较简单,加上DirectX的帮助,游戏引擎得以较充分的利用显卡性能.而随着全平台游戏开发模式大行其道,游戏引擎和显卡之间的关系变得复杂起来,一款游戏在不同的的平台上也要与不同的API接口和显卡打交道,想要在不同平台上保持出色的画面和震撼的效果非常困难。 NVIDIA的时代-CAPCOM技术和索尼的G80情结要说明显卡技术与全平台游戏的关系,还得回顾一段历史.2004年,基于对游戏画面走向的大量分析,CAPCOM内部的专家组开始研发新一代游戏引擎.与此同时,NVIDIA耗费3年时间研发的G80核心已处于”流片”(Die Out,代表芯片即将投入正式生产)阶段,为强化自身的市场竞争力,NVIDIA决定在世界范围内与游戏开发商开展深入合作,加快图形技术的更迭在玩家中的口碑和对全CG动画电影的钟情使他们一拍即合,NVIDIA的加入也使CAPCOM的游戏引擎技术(即MT Framework)得以大幅提高,并逐渐掌握了DirectX 9.0c下的开发技术.当年对G80芯片及相应图形技术垂涎不已的,还有索尼电脑娱乐部门(Sony Computer Entertainment,下文简称SCE),他们选择了更直接的方式-把G80核心纳入PS3的硬件体系里(SCE此举的目的是让PS3的’机能’大幅领先于微软的Xbox360,在画面精度上牢牢压制对手的产品).虽然当时PS3尚未发布,但此消息一经公布,立刻形成了巨大影响,玩家们对PS3的期待被推向顶峰,Xbox360也因此被人讥为”Xbox1.5”.然而事与愿违,由于当时NVIDIA还没有为G80核心设计适合家用游戏机的简化方案,因此在谈判桌上浪费了大量时间后,SCE才意识到1.G80核心的设计授权费用和芯片切割成本将远远超过自己的承受能力.2.家用游戏机这种小型产品在供电、散热等方面也无法满足G80核心的要求。 迫于时间压力SCE只好退而求其次,向NVIDIA购买了上一代G70核心的授权.更不走运的是随着母公司索尼集团财政状况日益恶化,SCE不得不再次消减芯片制造成本,G70核心的256bit总线被减半,ROP(光栅处理器)、TMU(纹理贴图单元)也相继缩水.为提高性能SCE只能尝试提升芯片频率,不仅大幅拖延了PS3的上市周期还导致PS3在满负载时温度高达97.6℃!同时PS3也丧失在1920x1080 分辨率下运行实时渲染的能力,实际性能仅相当于GeForce 7900GS,与Xbox360相比不过半斤八两.现在我们回头来看,NVIDIA后来通过优化G80核心获得的G92-400(GeForce8800GS)和G92-150(GeForce 9600GSO)核心才是最适合家用游戏机的. -CAPCOM的进取心与游戏开发机的”NVIDIA化”在游戏开发圈里有一个有趣现象,跨平台游戏开发商很少向微软Games for Windows专家组咨询DirectX 10的技术事宜,他们大多是与微软的下属独立机构Xbox Mountain View部门沟通,并固执的沿用过去积累的电脑游戏开发经验,在PC平台上直接推出比游戏机画面效果更好的Direct 9.0c版本.而PC平台著有游戏开发商则经常向Games for Windows专家组咨询,并开发出帝国-全面战争孤岛危机等画面效果宏伟震撼的著名游戏.目前家用游戏主机的显示核心还停留在DirectX 9级别是造成这一现象的原因之一.反映在游戏中的结果就是全平台游戏的DirectX 910版本在常规设置下画面区别极小,比如EPIC开发的战争机器,DirectX 10版本仅仅是提供另一个可选的应用程序接口,在画质上没有太多优势.为什么会这样呢?因为DirectX 10目前在全平台游戏开发商眼中只是用于解决DirectX 9下的HDR与AA的冲突,因此可用可不用.比如PC版的UT3中根本没有DirectX 10模式,在1280×800等分辨率下无法实现反锯齿技术.获得NVIDIA协助的CAPCOM在这方面的表现则要好很多,旗下游戏大部分具备DirectX 10版本,并且对游戏画面有一些提高为CAPCOM提供的帮助不仅局限在软件开发方面,2006年后期,CAPCOM开发部门的硬件设备得到全方面升级,基于G80核心的Quadro FX专业显卡和当时的顶级GeForce显卡被大量采用,为开发部门提供了稳定的办公支援和”疯狂”的图形应用性能 Framenwork Direct 9.0c的完成版也在此时新鲜出炉,基于该引擎设计的游戏理论上可发挥出英特尔酷睿2 EGBGeForce 8800GTX(768MB)级别电脑的全部性能. 但最终游戏的实际表现却远远达不到让GeForce 8800GTX级别显卡”火力全开”的水准,这是为什么呢就像鬼泣4的制作总监小林欲幸所讲的一样,【开发一部游戏首先就是在高性能电脑上制作Alpha版本,之后再依据PS3,Xbox360不同的架构进行相应的图形缩水,计算简化,以满足画面帧素的要求.因此PC版游戏实际上才是游戏的根本和最先完成版本,但由于开发商销售策略的缘故却成为最后一个上市的版本.】 1. 微软Xbox360的图形核心设计制造ATI芯片代号Xenos晶体管继承量2.32亿Xbox360的图形核心由ATI设计制造,内部包括两个芯片共集成3.37亿个晶体管,但真正由ATI负责设计制造的只是其中的主芯片-拥有2.32亿个晶体管的Xenos,规模大概相当于RADEON X800.那么另外一个芯片是怎么回事呢?还得继续回顾历史,当初ATI在设计Xenos芯片时迫于微软的压力采用了尚未成熟的”统一渲染架构”,虽然提高了执行效率,却无法满足Alpha混合,Z轴缓冲等反锯齿技术的要求.双方不得不寻求其他解决方案,最终选择了NEC提供的eDRAM(内嵌式动态随机存取存储芯片,容量仅10MB),并将两个芯片统称为-C1图形处理器芯片由于容量太小,仅能存储AA采样数据,对图形子系统的性能毫无帮助. 这个解决方案的副产品就是著名的”3红”问题-为控制成本,微软将这两枚芯片焊接在一块4层的的PCB上,受Xenos影响会在高温下边形,导致脱焊.与PC中的显示核心相比, Xenos实在是太小了,2.32亿晶体管里只能塞下48个统一着色单元(USU)和16个纹理单元(TMU).许多消费者都以为Xenos是基于当时新一代的R500(RADEON X1950XT)核心设计,但实际上它只相当于R420核心的24管线改装版,受散热系统的限制只能以500MHz工作,效率很低.按照微软官方公布的资料,C1图形处理器的理论运算能力为每秒480亿次像素着色,而目前主流的GeForce 9800GTX+级别显卡能达到每秒2365亿次,5倍左右的性能差距严重限制了全平台游戏的画面表现.至于显存带宽则差距更大,微软所宣称的256GB/s只是eDRAM芯片内逻辑电路到暂存电路的带宽,而eDRAM到Xenos得数据带宽只有32GB/s.由于Xenos的数据总线只有128bit,虽然采用了频率为1400MHz的DDR3显存,但实际带宽只有22.4GB/s,这才是Xbox360的最大理论显存带宽.而在实际应用中,这22.4GB/s的带宽还要与处理器共享,显存也是与主内存共享,导致性能严重受损. Xbox360用的是频率为1400MHz的DDR3显存, Xenos的数据总线位宽只有128bit,所以Xbox360的显存带宽是 1400x8000 ×128 = 22.4GB/s ,而且实际游戏时GPU可用带宽只能比这低很多-由于为降低游戏机制造成本采用”统一内存体系”产生的弊端, Xbox360没有GPU独立显存,只能与处理器一起抢512MB的内存容量,所以处理器也必然占据22.4GB/s里近一半的带宽.如此低的GPU至显存带宽会极大限制游戏分辨率和特效渲染精度,所以Xbox360无法实现真正的1080P(1920×1080)全高清画面,其中的奥妙将在后文分解,下面再来看看PS3的情况.2 PS3 的GPU设计制造:NVIDIASCE芯片代号: RSX晶体管集成量:3.02亿SCE将PS3的GPU核心命名为RSX(真实合成处理器),由NVIDIA设计,索尼“制造”。 这款基于G70核心的GPU内部集成了3.02亿个集成管,索尼官方公布的资料表示其运行频率为550MHz,然而正式销售的PS3中却悄悄地降为500MHz,拥有24条像素着色管线,8条顶点着色管线和24个纹理单元。 从规格上看要高于Xbox360的Xenos,这也是SCE经常指责游戏开发商没有发挥出PS3的“机能”的理由之一。 但事实却并非如此,尽管RSX的核心渲染能力尚可,但“配套设施”却很糟糕,不仅总线位宽被砍到128bit,显存也是频率为1400MHz的DDR3,因此其显存带宽与Xenos相同,均为22.4GB/s。 虽然拥有256MB的独立显存,但也不比Xbox360强到哪里去。 再来看看SCE着重宣传的浮点运算能力,RSX号称拥有1800GFlops(每秒1万8千亿次)的浮点运算能力,但和GeForce 9800GTX+ 的7096GFlops相去甚远。 PS3在性能上比肩主流PC纯属痴人说梦,而且也难以满足《生化危机5》等游戏在1080P下运行的要求。 前面已经从硬件基础上分析过,无论Xbox360还是PS3,都不具备在大型3D游戏中实现1080P画面的条件,因此它们要采用一些灵活的变通手段。 1 PS3的差值计算式伪1080P画面SCE在PS3的宣传中采用了偷换概念的手段,PS3具备1080P的蓝光电影文件的解码能力不假,但这与1080P即时渲染游戏画面是两码事。 PS3的1080P游戏画面其实是通过像素差值计算放大后的1280×720图像,在这个简单的“拉伸”过程中RSX只要填充所采样像素的色彩均值子像素就行了,完全无需进行像素着色计算,这样的1080P画面即便古老的NV40芯片都能实现。 这种伪1080P和真正的1080P在像素量上有本质区别-游戏里的物体几何模型并不会变得更加精致平滑,相反由于是以720P像素渲染水平硬放大的游戏画面帧,锯齿像素面积也同样会被放大2.25倍,物体模型几何失真效应会非常严重,画面效果反而不及720P.2 Xbox360的假1080PXbox360和PS3一样也是只能在设置里调桌面的像素量,而实际Xbox360版游戏里都没有分辨率调节菜单。 在Xbox360公布之初,开发团队将其最高分辨率标为1080i。 但当时微软不知道PS3性能实际上也这么有限,由于SCE一直对RSX的技术严格保密,微软对RSX的性能非常恐惧,所以宣传伊始就明确表示Xbox360的游戏像素渲染量最适宜720P。 但2006年时,微软辗转拿到PS3开发套件第三版Debug测试机进行拆解分析后态度就开始转变-既然别人能搞1080P,我们为什么不可以?不服输的Xbox开发团队立即放出风去,说Xbox360的开发工具在经过优化后也能渲染1080P游戏,RSX根本没什么了不起,可是Xenos在大型Shader的游戏里像素填充能力实在太低,临时修改芯片设计也来不及,该怎么办呢?工程师们发现C1里那个简陋的eDRAM芯片在分辨率高于1280×720时形同虚设,只要每帧画面高于100万像素就用不了反锯齿技术,干脆用它来进行像素差值计算,把720P画面等比放大。 虽然这样会在模型边缘形成明显的锯齿,但却能获得比PS3更高的帧速的“1080P”游戏画面,于是Xbox360就这样具备了1080P的渲染能力。 在2005~2006年,游戏开发者们还在使用P4 3.6和GF7900或R X1900XTX当开发机或高强度Dedug机,然后大幅缩减图形规模在Xbox360、PS3的Dedug机上测试会不会半截挂掉。 开发者眼中这两台游戏机实际机能离这些现在看来已经是“老爷车”的PC都有很大差距,其中尤为强烈的就是对这两台游戏机的CPU极为不满,GPU的问题到好解决,缩减游戏机画面分辨率和特效精度就行了,基本三流PC玩家也能胜任这种工作,但处理器计算能力出问题可就严重了,引擎底层代码都得重建,令大量Dedug程序员怨声载道。 事实上Xbox360游戏里能保证720P就已经是谢天谢地了,据EPIC调查很多别的制作者为了达到不致令人呕吐的帧率,连700P都保证不了。 当然EPIC最后自己也晚节不保,XBOX360版的GOW最终渲染规模钉在了每帧1244X700像素,就这样才只能维持在27fps,【不到他们在AthlonX2 6400+和GF8800GTX的PC上渲染速度的1/4!】倒霉的开发者太多了,由于早期不着边际的忽悠,很多开发者都严重高估了游戏机的机能,甚至Xbox360的第二版开发套件里使用了两片高频率Power Mac G5,并且说这开发包只有最终版主机的2/3水平,依据就是Xbox360的处理器是3核心……开发程序毫无悬念的结果就是最后游戏成品在Xbox360上普遍跑不到预计帧率的1/2,令游戏测试人员狂呕不已。 没办法,只能祭出像素消减大法!GTA4 的两个游戏机版每帧只有1138X640,GPU像素填充优化的场景距离仅为20%,并且两台主机只有24~26fps。 在PC版出场后,大量游戏机的不明真相者纷纷致电RockStar开发组,幸灾乐祸的指着GTX280+E8200渲染的1920X1200像素量、全特效、场景描绘距离来至100%的GTA4大叫:“才29fps啊!最顶级的显卡也比不上游戏机。 ”而RockStar的一线开发者在接受采访时的回应是也非常简单:“那就降低可视距离咯,要不就降低分辨率,而且PC版的纹理效果也是全面提升的,其实关键就是分辨率,实际上开到1680X1050的PC版数据量就已经比游戏机的GTA高很多倍了。 具体高多少我也忘了。 ”显然、这位开发者碍于游戏机制造商的脸皮没说太清楚。 ”将Xbox360假1080P噱头击的粉碎的游戏不是被人,正是微软自己的人-----Bungie和他主导的《光环3》。 《光环3》在延续前代Xbox上的游戏程序框架,依据Xbox360的实际能力进行设计,场景大小、几何精度等数据基本只提升了两倍,这种务实的做法让游戏帧数比GTA4的表现好很多,不过糟糕的是《光环3》的分辨率也只有1138X640。 处理器的工作就是执行整个游戏中的所有应用程序,并分配图形渲染工作线程给GPU执行。 如果说画面逼真度高低取决于GPU的着色运算和纹理填充能力,那么游戏执行速度就同时取决于处理器和GPU的性能。 这么说可能会有人不了解,为什么Xbox360的3核心和PS3的“9核心”处理器会在《生化危机5》满负荷运载,温度也飞速蹿升至7、80℃,游戏机和PC的差距真有那么大吗?看了下面对Xbox360、PS3的处理器剖析,你就会明白游戏机这种玩意儿的处理器是怎么回事了。 1 PS3上的假“9核心”Cell处理器与IBM应用于服务器的Cell处理器不同,PS3上的Cell只有2亿3千万晶体管、主频为3.2GHz,65nm工艺制造,采用和奔4一样的超线程。 和IBM最少2.5亿晶体管、主频高达4.6GHz的芯片品质没法相比。 而在大型服务器上Power PC架构的Cell处理器使用率非常低,卖不出去的没别的原因-Cell处理器的实际复杂运算能力太低。 PS3的版本的Cell处理器逻辑电路由一个小型的Power PC架构通用运算核心(PPE)、八个微型单精度运算核心(SPE)组成,其中一个SPE在实际产品中被屏蔽掉,所以确切说PS3的处理器应该是“伪9核心”。 此外由于为了省钱,系统没有一颗硬件音效芯片,因此还要占据一个SPE专门处理音效。 由于全能型通用运算核心(PPE)太小,即使对应了两个工作线程最大限度发挥逻辑电路效率,其计算能力也非常有限,于是只配有0.5MB高速2级缓存。 另外7个协处理器(SPE)运算指令范围非常窄 连NVIDIA 的GPU上的流处理器单元(SPU)的指令范围都不如,这就是PS3所谓的有“次时代”游戏物理效果和PC上配备GeForceGTX显卡的硬件PhysX物理效果根本无法相提并论的根源。 确实是够“次”的,否则《镜之边缘 》PC版里超复杂的逼真物体破碎、撕裂、碰撞效果,PS3怎么不用Cell处理器的鸡肋SPE去运算…… 这些基本上只能胜任视频文件解码的SPE分别带有0.25MB低速缓存,所以对处理器架构设计有了解的人现在就会看出Cell处理器在晶体管规划上的严重问题了-他不是一颗适合游戏处理器通用性程序运算的芯片!Cell处理器将70%以上的晶体管都划给了SPE及其低速缓存,这么一大堆SPE都不具备独立的程序运算能力,只能辅助RSX进行浮点运算,确切地说是浮点着色运算-全是些简单的非超长程序着色指令级像素填充而已。 这在实际游戏中对复杂着色特效帮助能力非常可怜,要不然PS3版的GTA4也不会进能在1138×640分辨率下勉强达到24FPS。 反观真正意义上可以成为处理器的,具有程序全能性运算能力的PPE核心晶体管太少了,而且使用的还是效率低下的顺序指令执行架构。 而一但那6个(屏蔽一个,音效处理占一个)SPE全速帮RSX填充像素,PS3仅256MB容量XDR内存的25.6GB/s带宽将被斩掉18GB/s以上,真正的PPE逻辑运算可用数据带宽连7GB都不到,加上教条的指令顺序执行效率,内存数据交通随时有可能瘫痪。 2 Xbox360上的3核心Xenon处理器IBM为微软下属独立的部门Mountain View开发团队(即Xbox360开发团队)设计的Xenon处理器(和ATI设计的Xenons显示核心是两码事)晶体管规模1亿6500万、运算频率3.25GHz、65nm工艺制造,看起来像是比PS3的处理器规模小很多,但实际上Xenon没有Cell那些形同虚设的简单像素运算用SPE,PPE逻辑运算电路规模更大。 Xenon和Cell一样,都是用Power PC架构的处理器,与PC上的Core2或Athlon、Phonem相比效率差的太远。 Xenon的逻辑电路由3个小型通用运算核心(PPE)组成,每个核心有两个工作线程,总共6线程。 和Cell上那个PPE相比,Xenon的3个PPE平均下来规模更小。 在实际游戏中一般只应用单线程至3线程,也是由于和PS3一样没有硬件音效处理芯片,Xenon的必须还要占据一个线程对5.1声道进行软处理。 游戏编程人员无视6线程最重要的原因,就是由于Xbox360为了省钱使用的统一内存显存体系。 因为一旦处理器的6个工作线程全部开启,能够真正有多少游戏有效计算性能暂且不论,光从内存里读取和输送数据就要占用每秒20GB的带宽。 而从Xbox360仅有1400MHz运作频率的DDR3速度可以提供的最大带宽只有每秒22.4GB,所以开启处理器6线程的同时就可以直接把正在运算长着色指令的Xenon关掉了,反正GPU的画面特效运算完只有每秒2GB多点的显存带宽也传不到那512MB内存显存里输送到屏幕上,直接关了还可以省点电.此外在Xbox360数据交通无比拥挤的统一内存上,任何一条Xenon的顺序指令执行工作线程都有可能让数据流动停止,如此严重的数据延迟,会使Xbox360的游戏AI直接倒退回DX7时代,所以使用两条或三条工作线程是最明智的方法。 与Cell同理由于PPE运算能力很低、指令执行方式很教条,Xenon总共只有1MB高速二级缓存,与Cell的PPE保持着相近的逻辑电路缓存比。 综上所述,结合处理器逻辑运算能力、GPU着色渲染性能以及内存和显存的容量和带宽-所有决定游戏性能因素的巨大差距,就是致使PC版《生化危机5》比游戏机版画面精度、执行速度快和强好几个硬件时代的根本原因。 游戏机死忠们相比看到会跳出来讲,2005年、2006年的东西不能和2008年的PC放一块比。 那好不和也是2005年、2006年的Aehlon×2、Core2比,就和2005年、2006年最低端的单核心奔4、Athlon 64放一块,伪多核心的Cell、Xenon超得过前两者吗?在游戏程序员中根本没戏。 刨除处理器芯片设计、制造成本和晶体管规模的巨大差距,游戏机处理器致命的架构缺陷也是决定性因素。 无论是一个小型逻辑运算核心还是3个,两者之间孰强孰弱,都是属于游戏机芯片这种“不值钱”的最低级硬件之间的无休止争论(在处理器架构工程师眼中Xenon更好点),和真正个人电脑上这种英特尔大型逻辑运算核心的处理器级别相差5~10档次。 游戏机的Cell、Xenon这种低档次处理器的PPE,最“弱智”的地方就在于根源上的顺序指令执行架构,而PC上的高级处理器逻辑运算全部采用只能指令执行架构。 游戏机的这种架构会造成多大的性能损失呢?就以《生化危机》为例:一个非洲兄弟拿火焰弩瞄准猪脚发射之前,处理器要预先按照不同指令计算出命中概率和命中表面检测等数值,那位弟兄才会击发;但在PS3、Xbox360版《生化危机》中一旦命中检测无法完成,Cell、Xenon依旧会不断试图在该指令深度上完成计算,而排在流水线后面的其他 程序指令只能等待前面的弟兄完成“击发”空耗着成百个时钟运算周期白费电。 这种“弱智”处理器架构会造成数据运算传输网络塞车(帧渲染顿停),甚至“交通瘫痪”(死机)而最走运的情况就是我们可以经常看到《生化危机》中拿着火焰弩的大侠,不停的瞄……瞄着……永远瞄下去此类事情。 但PC上的处理器不仅具备强劲的高精度运算能力,像命中检测错误这种低级行为极少出现,而且退一万步讲,即使没完成指令也不会造成数据交通停止。 因为PC的高成本处理器带宽的晶体管规划使逻辑运算电路有大量并行指令流水线,采用乱序执行架构。 前面的程序指令没完成,别的指令先算着,等下个时钟周期再调用更强的指令集将没完的拿下。 所以PC上这种“值钱的”大型PPE永远会保持畅通无阻的运算网络。 EPIC的蒂姆·思威尼、id的约翰·卡马克等顶尖游戏图形专家,认为Mountain View在初代Xbox尚能虚心听取游戏编程人员的意见,采用英特尔的X86处理器。 但到了Xbox360项目上就变得完全听不进大家的意见,一心想着最大限度压缩芯片制造成本省钱,执意选择购买IBM的小型PPE架构授权。 程序专家们对这些“次”时代游戏机的处理器实际性能非常不满,未来是需要多核心处理器,但绝不是用架构倒退来换取的伪多核心,这样做毫无意义。 而Crytek的Cevat Yerli那时甚至都不会正眼瞧这些东西一下,显然他们正在制作的PC版Crysis图形技术等级即使8台PS3、Xbox360加一起也渲染不了,而当前Crytek 重新编写的跨游戏机CE3引擎经过大幅简化,图形渲染精度只有CE2的18了,可以看到前几个月Xbox360、PS3的CE3展示程序里不足25FPS的渲染速度、硕大的锯齿图形失真和512×512的惨不忍睹纹理精度,全景动态体积光照也消失了,像倒退回了DX9.0a时代,不过幸运的是Cevat Yerli保证PC版不会受到牵连。 除了日本,欧洲偏远地区的几家墙头草式游戏公司不太重视硬件性能,世界范围内游戏开发者们普遍对Xbox360、PS3甚至远远不如2005年、2006年同时期的奔4、Athlon64搭配7900GT,X1900pro的主流PC性能感到很不满意,这大大加剧了程序编写难度,想让实际图形性能很低的这两台游戏机表现出看得过去的画质和帧率异常劳神,就像《生化危机》的MTFramework一样不得不再次像挖PS2似的大规模动用低级汇编语言花去整整4年研发时间,又因为PPE、ShaderCore最终伏在成都过高,带来游戏机芯片温度异常、电气性能不稳定、游戏过程易死机等诸多硬件问题。 开发者们越来越倾向以制作PC游戏完整版为核心,再缩水至Xbox360、PS3的Debug机测试保证运行的策略,就像CAPCOM制作《鬼泣4》《生化危机5》这样,基本上绝大多数跨平台发行商都选择了这条明智路线。 问及这些开发者们认为下一代X720、PS4能否达到同期“性能级”PC的硬件水准时,基本上开发者都抱有期待,但觉得实际操作可能性很低。 根据数次广告宣传高摔得狠、“眼高手低”的经验,成熟开发者早已看透游戏机制造成本的限制不可能提供比同时期PC更好的性能。 在透彻了解了芯片硬件架构后,程序员们发现实际上Xenon游戏性能仅有第一代Xbox的Pentium Ⅲ733MHz的2倍,未来4~5年Xbox360都采用这个处理器只能用失望来形容,在实际游戏中不可能发生的最理想状态下Xenon的浮点增效器也只有奔4的13的速度。 PS3的整机性能则比PS2实际提升了6倍,比Xbox360的幅度大很多,但这全因PS2过于有限的性能了。 世界上亘古不变的唯一真理就是一分钱一分货,像Cell、Xenon这么小的核心,性能最理想也就和Athlon 64、奔4相近。 彻底分了这代游戏机相比前任平均4倍的性能提升幅度后,蒂姆·思威尼、约翰·卡马克这些顶级游戏程序专家,并不认为依旧在地制造成本限制下的所谓X720、PS4,能和现在Core i7与GeForceGTX的电脑性能相提并论。

本文原创来源:电气TV网,欢迎收藏本网址,收藏不迷路哦!

相关阅读

添加新评论