这才是你想要的DX10游戏显卡

时间:2022-04-19 08:14:23

这才是你想要的DX10游戏显卡

从第一款DirectX 10显卡上市到现在,已经过去了整整一年。在这段时间里,相信关注图形技术和游戏的玩家感慨良多――最初想通过DirectX 10显卡见识DirectX 10游戏的精美画面,却发现除了厂商提供的少数几个演示DEMO外,DirectX 10游戏还是一片空白;苦等大半年后,终于盼来了《失落星球:极限状态》和《冲突世界》等DirectX 10游戏,但又发现GeForce8600系列和Radeon HD 2600系列这些被誉为高性价比的DirectX 10显卡,却无法提供DirectX 10游戏所需的性能。一时间“玩DirectX 10游戏只能搭配顶级显卡”、“没钱就别玩DirectX 10游戏”几乎成为圈内公理,但我们始终认为把大部分玩家拒之门外,丝毫不利于DirectX10显卡和游戏的发展与普及。

每年11月前后是NVIDIA重量级新产品的时间,在推出划时代的GeForce 8800 GTX/GTS一年之后,NVIDIA于10月29日了GeForce 8800家族的最新成员――GeForce 8800 GT。熟悉NVIDIA产品命名规范的用户不难看出,与已经上市的GeForce 8800Ultra、GeForce 8800 GTX和GeForce 8800 GTS相比,GeForce 8800 GT的定位是整个GeForce 8800系列中最低的。的确,GeForce 8800 GT是NVIDIA推出的第一款售价在2000元以下的GeForce 8800,用于填补GeForce 8800 GTS 320MB和GeForce 8600 GTS千余元价差形成的市场真空。尽管定位低了,不过NVIDIA却依然保证GeForce 8800 GT能够玩转任何DirectX 10游戏。难道玩家期待已久的高性价比DirectX 10显卡终于来了?

GeForce 8800 GT背后的秘密

与其他GeForce 8800相比,最新的GeForce 8800GT并非简单地调整核心、显存、流处理器频率,然后再冠以新的后缀字母。众所周知,之前整个GeForce 8800系列都采用G80核心,而GeForce 8800 GT的核心却已经升级为G92。从数字上看,很容易使人认为G92是G80之后的一次重大技术升级,但实际上G92的核心架构依然基于G80体系,这也是它仍归属于GeForce 8800系列之下的深层原因。不过相对G80,G92自然不乏一些显著变化。

65nm制程和7.54亿个晶体管

去年11月GeForce 8800上市时并未采用当时最新的80nm核心制程,而是基于稳定性和产能方面的考虑,继续采用台积电成熟的90nm制程,加之核心内部具有6.81亿个晶体管,因此热设计功耗达到了147W以上。GeForce 8800 GT的G92核心是NVIDIA第一款采用65nm制程的GPU,因此核心和流处理器都能够稳定运行于其他GeForce 8800无法达到的频率。改进制程的另外两个好处就是降低功耗和成本,G92的热设计功耗为110W,与G80相比至少可以降低30%的耗电量,而G92的核心面积仅相当于G80的2/3,理论上晶圆成本比后者降低1/3,这是其定价在2000元以下的重要原因之一。虽然核心面积变小,但G92却拥有多达7.54亿个晶体管,比G80还多七千三百万个,用于构建新增的第二代PureVideo HD引擎、双Dual-Link DVI链路以及HDMI混音模块。

全新的核心规格

以往的评测报告已经对G80核心规格做了详细解析,其核心具有8组阵列,每组阵列具有16个流处理器和4个纹理单元,GeForce 8800 Ultra/GTX的128个流处理器和32个纹理单元的庞大渲染单元便由此而来,NVIDIA通过屏蔽G80中的两组阵列产生了具有96个流处理器和24个纹理单元的GeForce 8800 GTS。而GeForce 8800 GT的G92核心是在G80的基础上屏蔽了一组阵列,总共具有112个流处理器和28个纹理单元,规格比定位更高的GeForce 8800 GTS还强。为了使GeForce 8800 GTS免受冲击,NVIDIA将GeForce8800 GT的显存位宽调整至256-bit,低于GeForce 8800GTS的320-bit,而且光栅单元也降至16个,比GeForce8800 GTS少了4个。但需要指出的是,基于65nm制程的GeForce 8800 GT的频率非常高,虽然这次NVIDIA没有规定公版频率,但明确要求GeForce 8800 GT的核心频率不能低于600MHz,流处理器频率不能低于1500MHz,显存频率不能低于1800MHz,均比GeForce8800 GTS高得多,在一定程度上能够弥补显存带宽和光栅单元的不足,因此GeForce 8800 GT的性能超越GeForce 8800 GTS并非没有可能。

第二代PureVideo HD引擎

由于G80核心的设计时间较早,因此未能像后来的G84/86(GeForce 8600/8500/8400系列)那样拥有第二代PureVideo HD引擎,所以无法对H.264高清视频进行纯硬件解码,对高端用户来说的确是一种遗憾。这次NVIDIA终于在GeForce 8800 GT的G92核心中加入了第二代PureVideo HD引擎,包括VP2第二代视频处理器、BSP位流处理引擎以及AESl28解码引擎,在解码H.264高清视频时能够对“位流处理一频率转换(逆变换)一像素预报(动态补偿)一解锁(去方块滤波)”四个步骤进行全程硬件解码,不仅确保画面流畅,而且还能大幅降低处理器占用率。不过需要注意的是,由于GeForce8800 GT具有与GeForce 8600/8500/8400系列相同的高清视频解码能力,所以依然不支持VC-1高清视频的完全硬件解码。

PCI Express 2.0接口

GeForce 8800 GT是业内第一款支持PCI Express2.0(以下简称PCI-E 2.0)接口的GPU。在PCI-E 2.0规范中,PCI-E x1通道的传输带宽从PCI-E 1.0a/1.1的250MB/s提升一倍,达到500MB/s,由于PCI-E具有双向传输功能,PCI-E xl的最高带宽可达1GB/s。因此GeForce 8800 GT采用的PCI-E 2.0 x16接口的单向和双向带宽分别可达8GB/s和16GB/s,相当于PCI-E 1.0a/1.1中的PCI-E x32。不过目前接口带宽还未成为GPU的性能瓶颈,预计PCI-E 2.0将像上一次显卡接口升级(AGP向PCI-E过渡)时那样不会明显提升单卡性能,它的用武之地应该在今后的三路和四路SLI等非常受带宽影响的应用领域。另外,PCI-E 2.0接口的供电能力增加至225W,是PCI-E 1.0a/1.1的三倍,因此今后大多数高端显卡可以去掉外接电源,有利于降低成本。

上一篇:普通人的高清梦想 下一篇:家用投影机应用技巧谈(2)