显卡 频道

NVIDIA回应 目前G80缺点讨论(续)

未竟的讨论

  【IT168 评测中心】自《探索真相!目前G80所存在缺点讨论》一文发布之后,受到NVIDIA方面的强烈关注,并就文章中的一些观点和看法迅速与我们进行了密切的沟通。原文作为一种讨论性质的言论,其观点代表了不少人的看法,现在,根据包括NVIDIA等各方面的反馈,让我们感到有必要加入它们,传达更多的观点、看法,以便读者对NVIDIA的G80产品能具有有更为全面的了解。
  NVIDIA的反应很快,在我们上文提出的主要的5点观点中NVIDIA主要就市场策略及产品特性方面做出了解释,而对一些技术部分表明仍需要进行研究,下面我们就一一对它们进行诠述,并加入我们对其的看法,关于G80的技术方面的介绍、评测,仍旧可以观看我们的文章:《3D世界的革命 GF8800显卡深入剖析

能引起众多的议论,也表明着产品的成功之处

且听下回分解

目前的DirectX 9让G80的HDR和AA仍难以同时体验

FarCry : 16xAA 16xAF

  NVIDIA表示他们还在探讨这一点,近期内我们也打算对HDR以及AA(全屏抗锯齿)的技术、应用方面都做一些详细的研究,敬请期待。

需要期待工艺进步和市场发展

新出现的芯片有何玄机?

  在8800GTX和8800GTS上出现的这颗名为NVIO的集成电路的主要功能为带来真正10bit每通道的色彩输出能力,实现TMDS和双400MHz RAMDAC、双Dual-Link XHD DVI输出功能,虽然这简化了GPU的设计,然而额外的芯片无疑增加了制造成本,是否工艺成熟度不足而无法将其集成至GPU内部呢?(NVIDIA表明,由于G80内部时钟频率太多太高,如1350MHz的SP流处理器、575MHz的核心,为了降低干扰,同时也为了提高良品率,因此采用了分离出NVIO的设计,这一定程度上表明了我们的观点:工艺上的困难,同时随着以后工艺的发展,NVIO可能会“消失”——整合至G80或者G8x内部)

  未来是否会将其再集成进GPU还是一个问题,对于G80的简化版本——面向必要的中端市场——可能没有必要使用10bit每通道的色彩输出能力和双Dual-Link XHD DVI等功能,这时人们是否还要为NVIO付钱呢?这或许意味着一段时间之后会有重新设计的原生无NVIO的G81出现。(NVIDIA表明,对于高端玩家而言,NVIO带来成本提升的问题并不是很大,而目前7系列的中高端显卡芯片——如7600GS/GT、7900GS——销售情况非常良好,NVIDIA暂时没有推出G80的中端版本的打算,不过,这要看市场的反应,我们则认为,G80的创新架构在市场上的需求不会很低,未来一定会出现中端市场版本)

确实不够用,不过还有提升余地

要享受到完美的画质,带宽是不嫌多的

  G80显存位宽最大为384bit,虽说是采用了灵活的6通道设置,效率很不错,然而相比于竞争对手ATI未来的R600——G80的真正竞争者——提供的512bit显存位宽,似乎不是极为充分。
  在单卡的AA性能测试中,16xQ AA性能下降比较明显,和16x AA差异比较大,16xQ AA和16x AA的区别在于Color/Z保存样本的数量不同,在16xQ AA下需要更大数量的保存样本,这对内存带宽提出了很大的要求,实际上,目前GeForce 8800GTX显存默认1800MHz的工作频率提供的带宽对于这种优异AA模式而言已经有些不敷使用了,考虑到HDR以及XHD等因素,G80的显存带宽还需要更多。(NVIDIA表示,G80的384bit的内存带宽是民用显卡中最高的了,我们也认为的确不错,NVIDIA的CSAA架构可以降低AA对显存带宽的需求——关于这点我们会有专文讨论——毕竟16xAA还是有些超前了,G80支持DDR4显存而现在市场上的只是DDR3,还有频率还有提升的余地,这会取决于工艺的进步和市场的需求)

G80的功耗较高,然而每瓦特性能更高

90nm工艺G80的大功耗需要小心地选择散热系统和供电系统

  我们都知道G80的发热量不低,对于烧友而言,精心配置的厚大热管散热器带来的影响倒问题不大,然而工作时约80度的高温就有点让人不放心了,塞入机箱后,就需要很细心地布置,才能放心地运行。(NVIDIA也表明发热量的问题不大,散热器的设计的确不错,不过一些玩家反映卡的尺度也是一个问题,一些机箱/主板可能需要更换)

  巨大的发热量来自于巨大的功耗,80nm目前尚不足够成熟,相应的提升也不是很大,因此G80的6.81亿晶体管通过90nm工艺实现,不可避免地产生了这样的大功耗。当前8800GTX标称功率185W,官方推荐450W的电源,12V输入需求达到30A,而8800GTS的12V输入需求也达到了26A。实际上8800GTX准备了两个12V PCI-E辅助电源插口来汲取能量。
  30A的12V输出并不是每个电源都能承受得起的,这个应该是峰值的电流而不是正常运行电流,然而即使如此,一些体质较差的电源也无法稳定带动8800GTX,同时,一些450W的电源12V功率分配不正常,也不能稳定支持8800GTX,虽然发烧友一般都具有比较好的电源,但是发烧友也通常都具有较多的其他部件,如多个高转速硬盘等,占用过多的12V电流并不是一个太好的主意。(NVIDIA表明与竞争对手的产品相比,G80的功耗并不算过分,并且G80提供的每瓦特性能更高,我们则认为功率分配才是问题所在,或者,平缓启动时电流波峰会更好一点,这也是一些功率足够、体质较差的电源不能稳定支持的原因,还有一些过流保护阀值设置较低的足瓦电源的支持问题,也可以得到解决)

的确缺少DirectX 10应用

其实,我们认为当前G80的最根本的缺点可能是在行销上:“没有DirectX 10应用”

  在现行的DirectX 9上,FP32 HDR无法实现,HDR+AA无法实现,SM 4.0优势无法实现……单独地去看性能的提升,很不错,是很快,然而最具有明显效果的可能仅仅是AA带来的画质提升。
  假如,假如各大厂商在G80发售的同时,捆绑附送数款DirectX 10游戏,我们认为,宣传效果一定会更加明显,对实际购买的驱动力也应该就是立竿见影,否则,G80带来的可能更多的是一种超前思想,一种象征意义。(NVIDIA表明DirectX 10应用的确缺乏,不过G80在DirectX 9的应用上性能良好,并且真正符合DirectX 10架构的产品可以为未来提供准备,我们的看法是,G80的DirectX 9性能的确非凡,用DirectX 10的架构来实现DirectX 9的应用效率也能得到实在的提升,在需要优异单卡性能的时候,你目前只能选择G80,其他的,不妨等待DirectX 10的成熟)

问题在于DirectX 10的迟到和保守的90nm工艺

  【IT168评测中心】由于DirectX 10的迟到,G80的大部分特性都无法得到体现,要在DirectX 9上实现这些功能,驱动程序方面需要作出大量的工作,当前的Forceware 97.02驱动在HDR及AA等方面问题还不少,SLI的性能也有待提升,从进度来看,Vista不日即将推出,可能DirectX 9平台上的开发将不再是其重点。
  90nm工艺也是一个问题,一方面,成熟的工艺保证了良品率,另一方面,则导致了NVIO的分离设计,也导致了较高的发热量和功耗,NVIDIA的努力设计让90nm的工艺也能得到很高的每瓦特性能比,不过一些问题还是需要工艺进步才能得到很好的解决。
  无论如何,G80的性能都摆在眼前,疯狂的玩家可以投入享受了,稍后我们将会对HDR、AA进行研究——特别是G80的AA——并讨论如何才能得到非常好的的图形质量和运行性能,且看下回分解。

0
相关文章