显卡 频道

微星9800GTX+ 让你忘了4850

  【IT168 资讯】凭借着不俗性价比这一看家本领,ATI的Radeon HD 4850前段时间一经推出,便在市场上掀起一阵红色旋风,新一轮的显卡之战全面爆发。兵来将挡、水来土掩,做惯领头羊的绿巨人NVIDIA当然也是个狠角色,就在HD 4850发布后几天,便闪电祭出GeForce 9800GTX+予以应对。

  虽然比原有的9800GTX只是多了一个小小加号,但9800GTX+核心工艺却更先进、价格也开始变得更便宜了。同时,它也正式开始加入了对PhysX物理硬件加速以及CUDA通用计算的支持,可以说是一款全能显卡。NVIDIA宣布正式发布GeForce 9800GTX+之后,各大厂商迅速推跟进,各式各样的产品纷纷现世,其中最惹火的莫过于微星的N9800GTX Plus-T2D512版。

  微星N9800GTX Plus-T2D512的散热器不仅散热效果一流,而其外观也非常漂亮。那么,它究竟有哪些特点,性能又能达到什么样的水平?如果拿它和Radeon HD 4850相比,究竟微星N9800GTX Plus-T2D512会在哪些地方占据优势?下面的测试将发掘一切。

  一、产品全接触

  微星N9800GTX Plus-T2D512采用了红色PCB板设计,做工精细,用料讲究,布局合理。该显卡基于全新的55nm核心工艺制程,核心的研发代号为G92,采用DirectX 10规范的统一渲染架构,内建128个Streaming Processor处理单元,支持DirectX 10与Shader Moder 4.0技术。当然了该显卡最大的亮点还是加入了对NVIDIA PhysX物理加速和CUDA技术的支持。

  供电方面,微星N9800GTX Plus-T2D512采用了核心与显存分离式的4+2相设计,采用大量的高品质日系全固态聚合物电容,且全部采用封闭式陶瓷电感,有效的保证了显卡在较高的频率下长期稳定的工作。另外,为辅助显卡供电,该显卡还提供了两个6PIN外接电源接口。散热方面,微星N9800GTX Plus-T2D512采用超频设计,散热方面要求更高,采用4根铜质热管+散热风扇混合散热方案,散热性能更加强劲,足以保证显卡稳定运行。

  显存方面,微星N9800GTX Plus-T2D512显卡搭载了GDDR3显存,组成512MB/256bit显存规格,默认频率为为760/2300/1880Mhz(核心/显存/shader)。接口方面,微星N9800GTX Plus-T2D512显卡采用常规的标准接口设计,双DVI+S-VIDEO视频输出接口,基本能够满足用户的所有需求。

 

  二、更高频率,微星9800GTX+为高性能打下良好基础

  微星9800GTX+不仅采用了最新的55nm工艺,还提高了显卡的频率,比普通的9800GTX+频率更高,对于NVIDIA显卡来说,增加较少的频率就会提升很高的性能,这是因为G92的架构原因。

  我们从基本架构谈起,传统的GPU因为采用了分离式的架构,所以经常会出现数据分配问题,极大的影响了渲染效率。而DirectX 10中最大的改进便是引入了统一渲染架构(unified shader),所谓统一渲染架构,最容易的理解方式就是Shader着色单元不再分离。正是DX10统一架构的出现,sp单元也就是流处理器成为了一个规格的重要衡量指标,因为流处理器是显卡像素处理、顶点处理乃至几何单元处理的关键。不过因为设计架构的不同,sp单元也不能完全等同,因为它们的处理能力并不相同。

  对于RV770核心的HD4850,当消费者听到800个流处理器的时候,确实感到了数量众多,而9800GTX+仅有128个流处理器。从sp单元的内部角度说,9800GTX+采用完全标量的设计,显卡内部会把向量代码自动转换成标量代码,达到100%的运作效率,除了GPU中的其它因素例如带宽、存取延迟会对构成一定的性能影响,sp单元本身不存在任何延迟性能的结构。

  而基于RV770架构的HD4850的每个sp单元都包括5个算术运算单元和一个分支单元,如果采用特定安排的指令组合,最高可以实现每个周期发射、执行5条指令。理论上RV770每个sp单元在每个周期可以完成5条指令,因此ATI就用这样的计算方法来定义自己的流处理器数量,得出800个流处理器的结果。

  但是根据功能的不同,RV770的sp单元的5个算术单元被划分为两种,即ALU和ALU.transcendental,两种单元都能执行 MULADD 等整数、浮点指令,不过两者都存在一些彼此不能执行的指令,例如CUBE、Dot4、MOVA指令不能在ALU.trans上执行,而SIN、COS、MULHI、MULLO、RECIP、SQRT等指令都只能在ALU.trans单元上执行。

  因此在某些情况下,RV770的执行效率并不会达到理论的顶点,也就是说,因为架构设计的特点,RV770也许并不会在同一周期发挥出800个流处理器的所有效能,这与3D程序的编程方式有极大的关系。此外如果指令分支增多,这种效率还会继续降低,ATI当然考虑到了这个问题,所以在sp单元中包含分支运算单元,只不过我们无法判断这个分支单元能为sp处理器带来多大的效率提升。

  总而言之,对于实际游戏来说,9800GTX+架构的128个流处理器效率有基本的保证,而架构不同的RV770则不尽然,其实在运算中的效率问题各类架构优缺点并存。

  今天我们测试的微星9800GTX+核心频率和shader频率都比公版9800GTX+要高,这就为提升性能打下了良好的基础,我们会在后面的测试中详尽展示微星9800GTX+的性能。不过9800GTX+不仅有架构优势,练就一身GeForce内功的它还有很多功夫没有秀出来。

  三、支持三路SLI、智能SLI等等,微星9800GTX+功能丰富

  除了DirectX10这样具备业界共同参与制订的统一性标准,如果提起显卡厂商独立的特有的技术,那么最为著名、应用最为广泛的非NVIDIA开发的多卡互联“SLI”技术莫属了。随着时间的推移,这项本身单纯为提升显卡3D性能的技术也在不断的发展,如果现在谈到SLI技术,作为读者或者是硬件爱好者的您,还仅仅停留在提升3D性能的印象,那么您就非常落伍了。

 现在的SLI技术除了提升3D性能,还能做到节能、还能为物理运算进行加速,等等这些应用都已经渗透到了电脑的方方面面,而如果您使用了NVIDIA的显卡及主板产品,这些技术就已经存在于您的系统中,如果不合理的使用,那么会造成很大的资源浪费。

  大家应该知道,一个事物发展往往需要某种外界因素的刺激,而对于SLI的发展来说,是为了给那些需要优良的3D效果才能得到满足的消费者,在大多数的时候一般的玩家是配上一张具有优越性能的显卡,来提升3D立体效果,但是单单是一张显卡并不能完成大量数据的运算,使得处理速度显得捉襟见肘。

  SLI技术就是在这种环境下诞生的,将两块(或者三块)图形卡连接在一起,直接实现几乎两倍的图形性能,大幅度提升游戏的画质或者性能,实现方式非常简单。从SLI诞生至今,NVIDIA几乎全部的产品都能支持SLI,虽然竞争对手有类似的技术,不过NVIDIA SLI仍然化身多卡互联技术的代言,成为消费者最耳熟能详的图形技术之一。

  而近期最热门的关于SLI的测试和消息就是X58对SLI的支持,因为自身有芯片组的设计和生产,所以NVIDIA一直对SLI爱护有加,不过在这次Intel发售新一代Core i7处理器的时候,NVIDIA却一反常态的将授权开放给X58,让喜爱Intel主板的玩家也能体验到优异图形性能的享受(相比较而言,ATI的CrossFire技术更早的开放给了Intel主板)。

  需要注意的是,NVIDIA虽然对X58开放了SLI技术,但并不是针对Intel,NVIDIA最近计划伸延SLI支持的政策,此次是将授权交予了主板厂商而并不是X58芯片组的开发者Intel,不管是不是绕了个圈子,在NVIDIA开放X58主板的原生SLI支持授权后,主板厂商热情大涨,纷纷开发了相关主板产品,迎接Nehalem Core i7处理器。

  截至目前,微星已经推出了支持SLI技术的X58主板,且均通过了NVIDIA的授权认证,值得一提的是,NVIDIA的X58主板SLI方案包括原生和附加芯片两种方案,只有微星使用了NVIDIA的nForce 200桥接芯片,能为多路SLI提供充足的带宽(配备nForce 200桥接芯片可以实现三个PCI-E 16x通道的三路SLI,而原生方案只能实现三个PCI-E 8x通道的三路SLI,只不过nForce 200桥接芯片每个售价约20~30美金,比起原生SLI方案每块主板5美金的授权费要贵很多)。

  除了X58主板对SLI的支持可以大幅度提升3D性能以外,SLI还能实现智能SLI的功耗控制和专门的物理加速两项比较创新的技术。HybirdPower混合动力技术,这项技术旨在为能耗的控制而生,作为集成的主体功能,在用户使用独立显卡和支持智能SLI技术的主板搭配使用时,起到了对显示输出能力进行控制和调节的作用,是为了提供更好的性能和功耗控制的管理方案。

  混合动力可提供“高效能”和“低功耗”两种运行模式。其中高效能模式是板载GPU核心和独立显卡同时运行,在进行大型3D复杂运算时显著提高平台的整体性能。例如,3D游戏和图像处理等软件需求下,将板载GPU核心和独立显卡组成SLI模式,增强图形效能提高效率以节省用户的时间。而在低功耗运行模式下,Hybrid SLI平台将会关闭独立显卡,仅仅以板载的GPU核心运行输出显示,来实现降低功耗的目的。这一模式适合应用在平时用户上网和文档的处理等一些基本的需求,这样就可以是性能和功耗得到良好的控制,不至于造成不必要的“浪费”。对于GTX260+来说,这项技术非常实用和有效,毕竟我们在不玩游戏的时候,还保持着它的供电的确有些浪费。

  另外,对于最新的PhysX物理加速,SLI对此也有很好的支持,NVIDIA为多GPU的硬件系统进行了考量,为这类电脑打造更为完善的物理运算的加速模式,这其中包括两种模式:第一种是“SLI模式”,这种模式仍然是两块显卡各自承担图形渲染和PhysX物理运算的一部分工作,相当于平分工作,这种模式适合两款性能相当的产品。第二种是“Multi-GPU模式”,这种模式将图形渲染和PhysX物理运算的工作完全分开,一块显卡完全进行图形渲染,而另一块显卡则完全进行物理运算,这种模式适合两款性能有差异的产品,从示意图来看,目前图形渲染仍然是最高要求的部分,因此物理运算会交给性能相对薄弱的产品。

  上述的第二个模式更加创新,对消费者也更有使用意义,比如如果消费者购买了一块GTX260+,同时还钟情很多具备PhysX物理加速的游戏,那么无需再购买第二块GTX260+,用原有的9600GT等NVIDIA产品(或者另购一块)直接作为物理加速的第二显卡,同时保证了游戏的速度和物理加速的需要、又节约了成本。

 

  四、微星9800GTX+支持PhysX物理加速,让游戏更逼真

  游戏中的物理引擎越来越受到重视,因为玩家和开发者都意识到,想要让游戏更加好玩,仅仅只有出色的图形引擎是不够的,只有物理引擎才能增强游戏中的互动,进一步的提高游戏的可玩性。在早期的游戏中,物理运算一般会简化到不可想象的地步,在2D游戏里,大部分的物理被定义为“离开地面的时候,就往下掉”这样简单易行(比如爱吃金币的马里奥)。现在的3D游戏已经大抵脱离简单的物理运算而更讲求真实,但缺憾之处也是无所不在,也就是我们称之为“脚本化”的物理运算。

  可以举很多真实的游戏经历来说明:在《使命召唤:联合进攻》中,当你正驾驶坦克在不断获得一次次胜利,争取更大战果的时候,你却被前面的一片灌木丛挡住了去路,这在真实世界,会有问题吗?我们完全可以驾驶这辆重型坦克碾压过去。同样的情况在很多游戏中都会出现,玩家会发现,如果我们想炸塌一堵墙壁,必须在游戏中“指定”的位置进行爆破,而同样材质的墙壁,你却无法在另一个位置对其造成任何的伤害。

  这就是所谓的“脚本化”物理运算,游戏引擎已经定义了某种物理效果的完整流程,玩家只能被动的接受这种物理效果,而不能有任何其它的改变,一旦这种改变出现,就表明游戏遇到了Bug。而NVIDIA PhysX物理引擎首先会改变这一状况,让“脚本化”的物理运算完全变为真实化的物理运算。玩家可以与更多的物体发生互动,互动的方式不同也会产生不同的结果,你用不同的武器、不同的角度射击某幢房子,房子坍塌的速度和角度也会发生变化,这一切都会让游戏产生更多的随机状况,也让游戏更加真实。

  NVIDIA PhysX专门为游戏中可能遇到的很多复杂物理效果模拟进行了非常好的的支持和优化,这些效果都是现有游戏最难处理的部分。主要包括以下几种:流体的处理,虽然水面渲染的效果已经非常出色,但是在游戏中我们极少看到流动的水与物体发生互动,流体运动的运算难度很高,而PhysX物理引擎则能很好的支持流体运动与物体发生互动的计算;粒子的运算,爆炸的碎片、烟雾等在游戏中都是以最基本的粒子形式进行运算,碎片的掉落、烟雾的飘向和逐渐散去运算对CPU的负载极大,是现有游戏极难做好的一种效果,借助PhysX物理引擎和NVIDIA GPU则可以轻松运算。

  大量刚体的运动:与粒子的运算相似,现有游戏处理少量刚体的互动(比如赛车的碰撞)尚能接受,但是大量刚体的真实运动(比如泥石流中大量石块的滑落和相互碰撞)则会造成很重的负载。骨骼肌肉表情等的模拟:人物的行动模拟也是物理效果中非常复杂的一种运算,比如面部表情的变化会连带骨骼和肌肉的形变,这在当前的游戏中很难实现。衣物布料的运动:我们在游戏中看到的大都是身着紧身衣的战士,这就是因为衣物布料随人物和外界环境的影响导致的运动是一个极其复杂的运算,PhysX物理引擎同样为此做出了相应的基本运算模块。

  如果玩家细心,都会注意到上述效果在游戏中都是“低调处理”的,因为这些效果的运算过于复杂,实现起来会导致机器的不堪重负,而PhysX物理引擎专门为这些常用而且难于处理的运算进行了支持和优化,让这些处理不再成为今后游戏的瓶颈,从而让游戏更为真实。

  NVIDIA的显卡是目前唯一支持硬件加速的GPU,虽然收购PhysX技术并没有多久,但是NVIDIA已经高效的在市售GPU上实现了完全的硬件加速,而且在未来的驱动中,NVIDIA将会不断完善物理加速的能力和方式,包括多GPU的加速模式等等。

  PhysX物理引擎让未来的游戏具备更佳的真实性和互动性,对当前游戏难以模拟的最为复杂的物理运算:比如流体的运动、粒子的运动等的支持,让PhysX成为高效和优秀的物理引擎。目前已经有数百款游戏支持PhysX物理引擎,游戏机三大平台也全盘支持这款引擎,相信在未来的游戏中,借助GPU的物理运算,游戏可以实现更为复杂和逼真的物理效果,让玩家更有融入感和实际体验。

  PhysX物理引擎对各种硬件接口都具备良好的支持,其中NVIDIA GPU对其直接的加速最具效率,凭借强大的并行处理能力,NVIDIA的GPU成为非常好的的运算基础,在性能上大幅度超越和领先处理器以及竞争对手的物理运算能力。

  五、微星9800GTX+支持CUDA,让显卡应用渗透到更多领域

  CUDA,如今这个名词越来越多的出现在了我们的眼里。虽然说,目前来看,CUDA可能和我们目前的电脑应用并没有太明显的关系,不过相信随着未来越来越多的软件支持,CUDA最终将会走入我们每个人的电脑应用当中。前面我们说的那个例子,虽然现时来看并不太可能实现,不过,我们却很有可能在下一代的PhotoShop当中看到这一功能付诸实践。

  在Photoshop CS4上通过GPU支持,Photoshop打开一个2GB、4.42亿像素的图像文件将非常简单,对图片进行缩放、旋转也不会存在任何延迟。这就是GPU的强大运算能力的体现,而想要实现这一功能,则需要借助于一个接口——CUDA。

  CUDA(Compute Unified Device Architecture)是一个新的基础架构,这个架构可以使用GPU来解决商业、工业以及科学方面的复杂计算问题。它是一个完整的GPGPU解决方案,提供了硬件的直接访问接口,而不必像传统方式一样必须依赖图形API接口来实现GPU的访问。在架构上采用了一种全新的计算体系结构来使用GPU提供的硬件资源,从而给大规模的数据计算应用提供了一种比CPU更加强大的计算能力。CUDA采用C语言作为编程语言提供大量的高性能计算指令开发能力,使开发者能够在GPU的强大计算能力的基础上建立起一种效率更高的密集数据计算解决方案。

  在传统的发展路线中,电脑显示卡一直在为游戏和3D应用程序服务,但是竞争的激烈、技术的飞速前进客观的成就了GPU的爆炸式发展。GPU的运算能力已经达到了非常高的水平,甚至在浮点运算能力上已经大幅度超越较高级别的处理器产品。研究表明,从1993年开始,GPU的性能以每年2.8倍的速度增长,这个数字大大超过了PC其他子系统的发展速度。一块工作频率为3.0GHz的Pentium 4处理器,其晶体管数目为1.25亿个,即使算上SSE指令集的SIMD(单指令并发多数据流,这种情况是浮点吞运算下吐能力的最理想状况),也只有6GFlops的峰值浮点处理能力,而同期的一块NV40 GPU就有2.22亿个晶体管,峰值浮点运算能力很轻易超过40GFlops,而时间发展的今日,GPU的峰值浮点运算能力已经接近甚至超过了TFlops(1000GFlops)级别,GPU的性能可想而知。

  于是,由这个问题就导致了两方面的考量:一、GPU拥有如此强大的性能,它能否为其它非游戏类的应用程序进行加速,发挥其性能的优势;二、GPU的浮点运算能力虽然强大,但是其架构一直是专有的,无法和目前的x86处理器相比拟,通过什么方法去使用GPU,通过什么方法去让应用程序利用GPU加速。

  上述所讲就是NVIDIA最新的理论构想,那就是让GPU超越游戏,去拓展更为广阔的空间。而超越游戏,让GPU为其它应用程序服务,NVIDIA很早就进行了尝试,比如:NVIDIA早就与Adobe公司合作,为其Adobe Acrobat 8及Adobe Reader 8系列产品提供全新的页面显示着色技术,利用GPU来加速PDF格式下的绘图及显示功能,除了在效能上有所增进外,还可以利用GPU的可编程特性,进一步加强PDF文件中的2D内容展示效果,包括平移、卷动、缩放等,实际上Adobe Reader 8每一项运用到GPU的功能都有着显著的效能增进。使用者过去避免使用的一些应用,例如可进行极精细比例缩放的地图,现在都可以轻易地显示。

  而想要实现这些功能,必然需要显卡与应用程序之间有一个良好的程序接口,这就是CUDA。其时早在G80时代,NVIDIA就提出了CUDA的概念,只不过因为那时候CUDA还未成型,所以没有公布,而现在,基于CUDA的应用程序越来越多,因此到了GTX200系列芯片的发布,CUDA才同时正式大范围的推广并介绍给普通消费者。

  GPU辅助计算机进行并行运算在近两年来得到了非常迅猛的发展,其实借助GPU进行非图形运算早就有之。而CUDA不同于以往的图形处理技术地方就是它能够抛开原有的图形接口Direct3D或者OpenGL,而直接调用GPU的硬件资源,从这一点上来说,这要比最初的GPGPU技术更为先进。开放性标准使得OpenGL更加具有便携性和普遍性,它们允许不同的图形芯片能够采用完全相同的代码。虽然如此,不过这种方法同样拥有它们的弊端,那就是在提高了编程的灵活性同时,他们不能使用某些显卡上的特殊功能,例如快速共享内存等。

  这就是为何NVIDIA公司推出了像CUDA这样的东西,采用C语言编程,拥有自己的编译器来实现调用GPU进行辅助并行计算的功能。当然,为图形处理器编写程序代码并非易事,这是一项非常耗费体力的工作。不过CUDA能够实现更多的功能,让程序员更加轻松的驾驭GPU的性能。最重要的是,NVIDIA的CUDA能够支持G8x、G9x以及GT2xx系列图形核心,也就是说,只要用户或者程序员拥有一块GeForce 8、GeForce 9或者GeForce GT200系列的显卡就可以实现。并且在最新的CUDA 2.0版本当中,还加入了双精度浮点运算功能。另外,CUDA能够支持的操作系统也更为广泛,包括了Windows XP 32/64bit、Windows VISTA 32/64bit、Linux以及MacOS的各种操作系统。

  由于GPU的特点是处理密集型数据和并行数据计算,因此CUDA非常适合需要大规模并行计算的领域。目前CUDA除了可以用C语言开发,也已经提供FORTRAN的应用接口,未来可以预计CUDA会支持C++、Java、Python等各类语言。虽然现在更多的应用在游戏、图形动画、科学计算、地质、生物、物理模拟等领域,但是由于GPU本身的通用特性和CUDA提供的方便的开发环境,我们可以放开思维的束缚,想象任何可能的应用场景。

  六、性能测试,微星9800GTX+凭借高频全面胜出HD4850

  测试平台:
 ·处理器 CPU AMD 羿龙X4 9900 @ 2.6GHz
 ·主板 Motherboard  华硕790FX主板
 ·内存 Memory  海盗船 DDR2-800 2GB(1GB×2)
 ·硬盘 HDD Seagate Barracuda(希捷酷鱼) 7200.10 250GB 
 ·显卡 VGA Card 微星N9800GTX Plus| 760/1880/2300MHz
   GeForce 9800GTX | 675/1688/2200MHz
   Radeon HD 4850 | 625/2000MHz
 ·操作系统 OS Windows Vista SP1
 ·主板驱动 MB Drivers  ATi CATALYST(催化剂)8.5WHQL版
 ·显卡驱动 VGA Drivers  NVIDIA Forceware 178.24  版
   ATi CATALYST(催化剂)8.10 版

  测试成绩:


  七、高品质、高频率、高性能、多功能,微星9800GTX+将领军中端市场

  通过测试文章我们发现,微星N9800GTX Plus-T2D512的3D性能非常出色。同时,微星N9800GTX Plus-T2D512的物理加速也非常引人注目。欣赏过精彩的图片和视频以后,大家一定都对游戏中精彩的物理效果和逼真的场景模拟感到振奋,物理技术将是未来GPU发展的重要方向之一,并且NVIDIA和游戏厂商一直保持着良好的合作,相信在未来使用PhysX物理引擎的游戏将越来越多,与游戏的融合也会越来越好,到那个时候,显示卡的物理加速功能和性能将成为显卡重要的性能指标。此外,对CUDA的支持也让微星N9800GTX Plus-T2D512的性价比再次提升,又让我们多了一个选择它的原因。

  说到性价比,当然不能不提价格。微星N9800GTX Plus-T2D512的报价仅为1099元。不能忽视的还有硬件物理加速和CUDA的支持,NVIDIA这一次走在了前面,之前支持PhysX物理引擎有专门的物理加速卡,售价高达千元,这一次NVIDIA将物理技术集成到图形核心当中,算是将显卡价格再次降低。让消费者获得更超值的产品。

0
相关文章