以文本方式查看主题

-  泉州交易平台  (https://bbs.eoof.net:443/index.asp)
--  大众交易区!  (https://bbs.eoof.net:443/list.asp?boardid=2)
----  潘多拉的魔盒 XFX讯景9800GX2显卡全球首发 抢先详测  (https://bbs.eoof.net:443/dispbbs.asp?boardid=2&id=153146)

--  作者:伊诺维
--  发布时间:2008/3/18 15:34:00
--  潘多拉的魔盒 XFX讯景9800GX2显卡全球首发 抢先详测

现货已入驻泉州,欢迎广大IT爱好者前来参阅!

地址:泉州市九一路益华电脑城2楼241-242号 泉州伊诺维(蓝点)计算机有限公司

潘多拉的魔盒——

  潘多拉是宙斯创造的第一个人类女人,在普罗米修斯(火神和上天的机灵鬼)从天上窃取火种给人类使人类学会用火之后,主神宙斯就决定要让灾难也降临人间。因此宙斯委托赫菲斯托斯(火神和手艺人的保护神)用泥土制作美女潘多拉。潘多拉拥有一切美好的天赋,并拥有一个所谓潘多拉的盒子作为嫁妆,但里面却装有各种灾难和祸患。

  后来,宙斯把她送到厄庇墨透斯那里,厄庇墨透斯忘记了他哥哥普罗米修斯的警告,同她结为夫妇。一日潘多拉出于好奇心打开了盒子,于是里面各种的疾病、疯狂、罪恶、嫉妒等祸患一齐飞向整个世界,只有雅典娜偷偷放进去的“希望”留在了盒底。因此,人世间充满了各种丑恶和灾难。今天,人们常用“潘多拉的魔盒”来比喻灾祸与邪恶的来源。

造型活象一个盒子的Geforce9800GX2

  早在GeforceFX5800时代,我们就猜测NVIDIA到了Geforce9系列是否会启用9800作为其显卡的型号,因为在DirectX9的初期,大家熟知的Radeon9800Pro曾一度让NVIDIA两代旗舰显卡无地自容,长期稳坐性能最强宝座。

可曾记得他,记载着ATI颠峰历史的Radeon9800Pro

  现今NVIDIA果然在Geforce9系列用继续启用了8字辈,不过事过境迁,5年后的NVIDIA已经把显示业界的主导地位稳握在手上,那么究竟Geforce9800GX2这“潘多拉的魔盒”真的决心要为对手带来灾祸与邪恶了么?

我们为什么需要多核显卡:

G92的晶体管数量几乎是Penryn双核处理器的一倍

人类欲望的无限化迫使GPU也向并行方向发展——

  早在数年前,CPU领域的设计者已经意识到制造工艺开始制约了CPU性能的发展,所以很快他们就设计出并行发展的双核心CPU,甚至到今天我们还开始见到四核心CPU的出现。到了近年来,随着GPU的内部复杂程度超越了CPU,警示着GPU也需要开始向并行方向发展。

显示芯片近代发展蓝图(可点击查看更详细的大图)

工艺不是一切,晶片制造难度遭遇瓶颈——

  尽管上图看上去相当零乱,但大家只需要留意到一个趋向,就是近几代的高端旗舰芯片核心面积提升幅度的倾斜角已经越来越大,而中低端芯片还处于一个良性的发展期。可见对于追求极致高性能的旗舰芯片来说,工艺更新的速度已经远远追不上晶体管数量增加的需求。

  在早旗人类并设有预见到当集成度与微观世界发生联系定律会遇到如此多的问题,大量的物理化学定律在微观领域中失效或被改写,半导体的发展不再只局限于制造工艺,转而材料学开始成为晶片设计制造水平和可靠性的关键问题,同时成为芯片性能提升的重要因素。所以通过盲目增加核心面积,塞进更多的晶体管去提高芯片性能的方案已经寸步难行。

  为了在激烈的竞争中存活下来,NVIDIA和ATI都无限期地不断提升自己产品的性能。基于晶片制造难度带来的瓶颈,大家都不约而同地采用了并行多GPU的方案,可以说这种提升性能的方案是综合制造成本、研发成本两大方面最具性价比的,并且也是唯一在短期内大幅度提升性能的唯一可行方案。

多核GPU/VPU的普及率仍然很难追上多核CPU——

  其实显示芯片领域和CPU领域研发多核心并行的目的又有点不一样,GPU/VPU多核心并行的主要目的只是单纯地提升其3D渲染能力,这只有追求极致游戏享受的用户才有需求,所以到目前为止GPU/VPU多核心并行的产品并未得到普及。而CPU多核心并行的迅速普及化,主要原因来自于人们对电脑的使用习惯,多任务多线程的操作即使对于一个普通用户来说也是无时无刻会发生的事情。不过随着物理计算加入GPU运算行列,我们有理由相信日后GPU/VPU多核心并行的普及脚步会逐渐加快。

怎样的显示芯片才适合做多核显卡:

  我们认为并不是每一款显示核心都适宜并行组成多核心系统,那么我们来看看近这两年来两款比较成功的例子:

PCI-Express时代首款双核单卡——Geforce7950GX2

  有别于Geforce7900GX2、华硕/技嘉/影驰等品牌自产的多款多核心显卡,上图中显示的Geforce7950GX2可以说是第一款在市场上大面积销售的多核心显卡,采用两个运行在500MHz的G71核心组成,显存容量为512Mx2,达到当时前所未有的1G显存。

  就当时形势来说,G71(Geforce7900系列)凭借其核心面积小巧的优势,在市场占有量方面上完全战胜了性能更加强大的R580(RadeonX1900系列),而后来NVIDIA为了在名义上重夺性能之王的宝座,才得以推出了这款Geforce7950GX2。

女神为ATI带来的曙光——RadeonHD3870X2

  由于ATI Crossfire并联技术的面世要晚于NVIDIA SLI并联技术(其实笔者很想说是3Dfx的SLI),所以在ATI的PCI-Express近代史中并没有出现过太多其余多核心的显卡,而RadeonHD3870X2是ATI第二款官方发布的多核心显卡(第一款要追溯到8年前的曙光女神Rage Fury Maxx),采用两颗运行频率高达825MHz的RV670核心组成,在单卡上拥有16颗16mx32Bit GDDR3显存,组成了1G显存容量。

  无独有偶,RadeonHD3870X2所演绎的角色与Geforce7950GX2十分相似,虽说基于RV670(RadeonHD3800系列)没有在市场占有量上完全击败G92(Geforce8800GT/GS),但凭借“小巧身材,性能不弱”的特性也为NVIDIA带来很大的麻烦;而RaeonHD3870X2的推出更是让ATI重夺了最强性能的宝座。

  综合以上两个成功例子可得出,被用来制造多核显卡的显示核心并非需要最强的核心,君不见DirecX10初代两款最强最大功耗的核心G80和R600被用来制造多核心显卡?只有每平方毫米性能比值高的核心,才应该和值得被用来制造多核心显卡。那么接下来看看Geforce9800GX2的情况——

给女神带来灾难的魔盒?——Geforce9800GX2

  Geforce9800GX2采用了两个G92核心组成,在Geforce8800GT发布的时候我们就认为G92在每平方毫米性能比值方面并不出众,资料显示G92核心面积达到328mm2,要知道采用90nm工艺的G80为496mm2,如果同样采用65nm工艺制造的话,G92与G80核心面积谁大谁小还是未知之数,所以我们并不认为采用G92组建多核心显卡是一个很好的选择,反而低一级别的G94更加适合。

  不过对于NVIDIA来说,Geforce9800GX2是为重夺最强性能宝座而来的,双核G94并没把握完全战胜RadeonHD3870X2,并且对于最高端市场来说完全不需要涉及性价比这个词。确实,作为当今显示业界的领导者来说,NVIDIA作出这样的选择也不是不无道理的。

NVIDIA的潘多拉魔盒——Geforce9800GX2

  作为NVIDIA一线合作伙伴里面的A+级别,讯景XFX总是能获得最优厚的上游资源,在所有NVIDIA新产品发布之时,XFX总是能第一时间把产品送到各媒体手上,这次的旗舰Geforce9800GX2也没有例外。并且我们从各路渠道消息得知,这次NVIDIA把第一批几乎所有的Geforce9800GX2都交由XFX处理。

  对于一款将近600美元的最高端显卡,在绝大部分的情况下都不会有非公版版本,整卡包括散热器都会保持公版规格,品牌与品牌之间最大区别往往只来自表面的包装贴纸。但对于一款最高端的显卡来说,购买的用户在选择品牌时都会以信任这一点为出发点,所以这也正是一线AIC的品牌价值所在。

  Geforce9800GX2的整体造型极具革命性,整张卡都由金属外壳包裹着,这是一种前所未见的设计。

  Geforce9800GX2是一款基于Geforce8800GTS(G92)的多核心显卡,全部硬性规格都是Geforce8800GTS的一倍,只是核心频率有所降低,主要原因是因为对于一款多核心的显卡来说,更低的频率有助于提高容错率,减低不稳定的现象,同时又有效使成品率更高。

底部众多的认证

整卡只有输出接口和PCI-E槽暴露在外,甚至连散热风扇都埋藏在内

高端旗舰Geforce9800GX2同样支持HybridPower技能技术——

  大家应该知道NVIDIA Hybrid SLI拥有两个关键的技术特征,分别为HybridPower和GeForce Boost,而GeForce9800GX2可以支持其中的HybridPower技术。

  以GeForce9800GX2和整合GPU的主板为例,当两款产品搭配工作且激活HybridPower功能时,其中GeForce9800GX2可以完全被切断供电。主要可以体现在当用户观看高清电影或简单操作的时候,此时将会仅占用主板整合GPU资源而GeForce 9800GX2则会被切断供电;而当执行3D应用程序的时候, 用户则可打开GeForce9800GX2使平台达到最高的效能。

  简单来说,HybridPower可以让平台既智能又省电地工作,并可以保证在各种操作环境下平台的效能均达到最理想状态。

[此贴子已经被作者于2008-3-19 17:46:25编辑过]

--  作者:伊诺维
--  发布时间:2008/3/18 15:39:00
--  

  打开正反两面的盖子,我们初步看到Geforce9800GX2的内架构。可以看到其两片PCB卡身正面都藏于内侧,散热器被夹在两片PCB之间。

  如果前面的图还不能说明问题的话,那么相信这张NVIDIA的官方图就能已经很容易剖析出Geforce9800GX2的内部整体结构。

  Geforce9800GX2内部两张主副卡通过一个类似SLI的MIO口进行信息交换,有别于一般MIO口的是,其需要两条数据交换线。

  这个就是负责把两个芯心处理完的数据合成再输出的PCI-E Switch芯片BR04,与RadeonHD3870X2上面PLX公司的PEX8547 PCI-E Switch芯片不一样,BR04是NVIDIA自主研发的一颗PCI-Express2.0桥接芯片,我们初次与它见面是在nForce780i主板上,自主研发PCI-E Switch芯片的好处自然是最大限度地保证了稳定的工作和出货量。

  BR04在总体规格方面其实和Geforce7950GX2上使用的BR03一样,内置了48个PCI-E通道,不过最大区别在于BR03是一款PCI-E 1.1版本的Switch芯片,而BR04是一款PCI-E 2.0版本的Switch芯片。

整个多核心系统是如何工作的——

  通过内置拥有PCIE通道的PCI-E switch芯片,才能使Quad SLI系统正常运行,拥有48个PCI-E通道的switch芯片把一组16x通道连接到对外的PCI-E 16X图形接口,余下的各自以16X通道把两颗GPU连接起来,如上图所示,Geforce7950GX2两个GPU及图形卡界面三者之间都具有4GB/s带宽。

  而到了Geforce9800GX2这一代,由于BR04所提供的内部PCI-E通道已经升级至2.0版本,每个PCI-E通道传输率翻倍提升至500MB/s,所以两个GPU及图形卡界面三者之间的传输带宽也提升至8GB/s!

  PCI-E switch芯片起到一个数据路由的作用,工作时,显卡驱动程序会把资料传送至PCI-E switch芯片并由PCI-E switch芯片把资料再分派至所两个GPU,GPU与GPU之间的数据就可以直接通过接桥芯片进行交换,无需经过外部PCI-E总线,或者另外一个MIO接口。

  得益于PCI-E switch芯片的便利,让Geforce9800GX2省下一个MIO接口,真正实现了双核单卡的概念,从而能组建让人疯狂的Quad SLI四核系统。由上两图可见,Quad SLI系统两个显卡(比如说两张Geforce9800GX2)相应的GPU是通过MIO接口直接相连,效率比通过PCI-E switch芯片更高(虽然带宽要低一点),内部所有4个GPU核心就组成了一个四边形的结构,任何一个GPU都跟两个GPU相连,这个架构具有很高的效率。当然,我们可以看出PCI-E switch芯片在整个架构中扮演着很重要的角色,如何让其(通过驱动程序)控制数据的划分、流向,将是NVIDIA编程设计实力的真正挑战。

没有PCI-E switch芯片的普通多核显卡:

影驰自主设计的双核Geforce8600GT

  象这样没有采用PCI-E switch芯片的多核心显卡,由于PCI-E 16X总线只能让每个核心平均分享8条PCI-E通道,如果按照PCI-E 1.1规格计算的话,其内部GPU与PCI-E总线的数据交换带宽只能达到2GB/s,带宽比带有PCI-E switch芯片的多核心系统整整少了一半,并且不能再组建Quad SLI系统了。

板载着BR04和PCI-E接口,以主卡角色存在的一边

只有核心和单组DVI输出的副卡

  Geforce9800GX2上面所使用的G92核心编号为G92-450-A2,拥有和Geforce8800GTS(G92-400-A2)一样的128个流处理器理,但Geforce9800GX2单颗核心的工作频率比Geforce8800GTS低了50MHz。

  Geforce9800GX2每张卡上拥有8颗16mx32Bit规格的三星-1.0ns GDDR3显存,组成512M/256Bit X2的庞大配置,显存频率为标准的2000MHz,稍比Geforce8800GTS高50MHz。

QFN封装的VT1165SF多项供电芯片以对应双路电感,VT1165SF已经内置MOS管

曾经在RadeonHD2900XT上出现过的VT1165MF PWM电路控制芯片

  对于这等最高端显卡来说,用料当然是达到不计成本的地步,一切只为了最大限度保证稳定性。

  虽然配备HDMI输出的显卡我们已经见得不少,但作为在NVIDIA公版卡上,我们还是第一次看到HDMI输出接口。

  尾部有相当人性化的侦测灯,当正常连接并工作时,其会亮起绿灯。如果未连接或出现其他故障的时候,其会亮起红灯。

  SLI MIO口埋藏在这个位置,由一个小盖子遮掩,以保持整卡魔盒的造型。

  Geforce9800GX2需要一个6pin+一个8pin外接电源驱动,官方建议起码具备一个800W的电源。经过我们试验不能采用双6pin接入,否则不能正常驱动显卡。另外值得一提的是Geforce9800GX2 TDP为210W,其实也比想象中要低一点。

  由于风扇被以焊接的形式放置在中间,所以我们无从把整个散热器再进行拆解,从外观来看整个散热器两面都能照顾到两张显卡的重要软件,设计相当出色,相信设计周期肯定非常长。据称该款散热器已经获准项目专利,以防止竞争对手模仿。

  

  为此,在下万分感谢做为NV最核心合作伙伴的“XFX讯景” 以第一时间为我们带来这片全国为数不多的Geforce9800GX2显卡^^


--  作者:伊诺维
--  发布时间:2008/3/18 15:41:00
--  

  本次测试我们有幸得到业内线人的支持,为我们提供了一张于3月25日才正式发布的Geforce9800GTX:

  GeForce9800GTX采用12层的P392公版PCB,产品高度4.376英寸、长度为10.5英寸(约为11*26CM)。官方TDP标准为168W,公开零售价在299-349美元。

  Geforce9800GTX仍然采用了G92核心,编号为G92-420,频率设定为675MHz,流处理器频率为1688MHz,具备128个流处理器,绝大部分细节规格与Geforce8800GTS保持一致。

  显存方面Geforce 9800GTX仍将使用GDDR3显存方案,不过显存颗粒速度提升至0.8ns,正面采用8颗16mX32Bit显存颗粒,组成512M/256Bit的显存规格。

  供电部分,显存需要2个6pin外接供电。

  Geforce 9800GTX与Geforce8800GTS最大的不同点在于标配了的2个SLI MIO接口,能组建3-Way SLI平台。

超频模拟测试——Geforce9800GT性能初步探索

  另外,由于我们已经知道Geforce9800GT同样采用G92核心,并且流处理器降低到112个,那么就基本可以确认Geforce9800GT只是=Geforce8800GT+3-Way SLI,所以单卡性能方面并没有太大惊喜。我们斗胆把Geforce8800GT超频到已公布的Geforce9800GT频率(650/1625/2000MHz),作为前瞻性的性能展示。


--  作者:伊诺维
--  发布时间:2008/3/18 15:44:00
--  

  测试项目方面,我们舍弃了老旧的3Dmark05,只采用3Dmark06作为理论性能的项目。而游戏我们选取了其中4个DirectX10游戏、4个DirectX9游戏和1个OpenGL游戏。除了赛车游戏极品飞车使用Farps手动测试外,其他项目全部采用游戏自带或者第三方Benchamark软件测试,务求得到最准确的数据。分辨率方面,主要采用了高端平台最有机会用到的1600x1200、1920x1200和2560x1600。

  驱动方面,我们采用分别能正常识别Geforce9800GX2、Geforce9800GTX的174.51和174.40驱动,ATI RadeonHD3870X2则采用了最新的8.3催化剂。

  平台方面也与平时的测试不一样,CPU我们让四核Q6600超频到333MHzx9频率,务求把平台出现瓶颈的可能性降至最低。其余分别采用了NVIDIA主板+NVIDIA显卡、INTEL主板+ATI显卡的方案,务求让两方显卡发挥最出色的性能。


--  作者:伊诺维
--  发布时间:2008/3/18 15:46:00
--  

综合测试项目:3DMark06


--  作者:伊诺维
--  发布时间:2008/3/18 15:46:00
--  

DX10游戏测试——孤岛危机


--  作者:伊诺维
--  发布时间:2008/3/18 15:47:00
--  

DX10游戏测试——迷失星球

8xAA/16xAF测试——迷失星球

[此贴子已经被作者于2008-3-18 15:55:04编辑过]

--  作者:伊诺维
--  发布时间:2008/3/18 15:48:00
--  

DX10游戏测试——英雄连:抵抗前线


--  作者:伊诺维
--  发布时间:2008/3/18 15:49:00
--  

DX10游戏测试——冲突世界

4xAA/16xAF测试——冲突世界

[此贴子已经被作者于2008-3-18 15:56:03编辑过]

--  作者:伊诺维
--  发布时间:2008/3/18 15:50:00
--  

DX9游戏测试——半条命2 第二章

8xAA/16xAF测试——半条命2 第二章

[此贴子已经被作者于2008-3-18 15:57:17编辑过]

--  作者:伊诺维
--  发布时间:2008/3/18 15:50:00
--  

DX9游戏测试——极品飞车11

4xAA测试——极品飞车11

[此贴子已经被作者于2008-3-18 16:00:27编辑过]

--  作者:伊诺维
--  发布时间:2008/3/18 15:51:00
--  

DX9游戏测试——虚幻竞技场3


--  作者:伊诺维
--  发布时间:2008/3/18 15:54:00
--  

OpenGL游戏测试——雷神之锤4


--  作者:伊诺维
--  发布时间:2008/3/18 16:01:00
--  

4xAA/16xAF测试——极度恐慌


--  作者:伊诺维
--  发布时间:2008/3/18 16:05:00
--  

我们在室内裸机的情况下对Geforce9800GX与Geforce9800GTX进行了简单的温度记录

Geforce9800GX2温度记录

  在待机情况下,Geforce9800GX2两个核心的温度都在67-68摄氏度左右跳动,当运行3Dmark测试时温度提升至85度左右,其实对于一款多核旗舰显卡来说,这个温度已经尚算不错。更要称赞的是其散热器的噪音控制实在非常出色,即使把耳朵靠近也基本不能感到明显的噪音。

  对于一款单核双槽散热器的显卡来说,Geforce9800GTX的整体温度就显得有点高了,满载时温度超过了80摄氏度,绝大部分时间接近80摄氏度。不过其散热器转速非常低,用家可以根据自己需要进行调节,默认转速时即使在室内裸机的情况下也几乎没有产生任何噪音。