POPPUR爱换

标题: 奔腾归来!Intel Larrabee基于P5架构 [打印本页]

作者: 马由    时间: 2008-7-9 10:44
提示: 作者被禁止或删除 内容自动屏蔽
作者: gz_easy    时间: 2008-7-9 10:45
原来是奔腾妈妈叉。{biggrin:]
作者: roadrunner    时间: 2008-7-9 10:46
无OOO, 可能连CACHE都会被剥掉, 其实就是CELL的X86版
作者: 三毛妮    时间: 2008-7-9 10:50
历史真是悠久~~~~~~~~~~~~~
作者: 红发IXFXI    时间: 2008-7-9 10:50
原帖由 gz_easy 于 2008-7-9 11:45 发表
原来是奔腾妈妈叉。{biggrin:]


妈妈叉{biggrin:]很经典的
作者: potatoXin    时间: 2008-7-9 11:13
标题: 梦工厂转投Intel Larrabee开发新3D动画片
转载

据国外媒体报道,Intel已经在进军视觉计算的领域找到了一家颇具说服力的合作伙伴。好莱坞巨头梦工厂动画公司已经和Intel展开合作,使用Nehalem处理器和Larrabee显卡加速设备,开发他们的首部3D立体动画电影,名为《怪物vs外星人》(Monsters vs.Aliens),预计于明年3月上映。
Intel发言人表示:“梦工厂将使用最新的高性能处理技术,包括未来的多核心芯片,满足3D动画渲染的性能需求。”发言人NickKnupffer还专门指出,所谓“未来的多核心芯片”指的就是Nehalem处理器和Larrabee cGPU:多核心显卡和浮点运算加速架构。
在此之前,梦工厂动画一直是AMD的忠实支持者,《怪物史莱克3》就是使用代号巴塞罗那的四核心Opteron工作站渲染的的。Intel表示,梦工厂目前正在将其“基础运算架构向Intel系统转移。”
作者: 三毛妮    时间: 2008-7-9 11:14
转变得好快啊{shocked:]
作者: gz_easy    时间: 2008-7-9 11:18
性能是基础 + 钱多好办事。{biggrin:]
作者: 马由    时间: 2008-7-9 11:22
提示: 作者被禁止或删除 内容自动屏蔽
作者: greenfox    时间: 2008-7-9 11:32
钱多真好。。。
作者: beer966    时间: 2008-7-9 11:40
不过国家的曙光5000计划搭配皓龙处理器........{biggrin:]
作者: zy21    时间: 2008-7-9 11:41
现在也只是纸上谈兵啊
作者: beer966    时间: 2008-7-9 11:43
原帖由 马由 于 2008-7-9 11:22 发表
{lol:] 到时候INTEL反讥NVIDIA:连我第一代奔腾都跑不过,还讲乜CPU无用论



{titter:] {titter:]
作者: 我系高手!    时间: 2008-7-9 11:50
原帖由 马由 于 2008-7-9 11:22 发表
{lol:] 到时候INTEL反讥NVIDIA:连我第一代奔腾都跑不过,还讲乜CPU无用论


真够250的,一代奔腾有这么多核心吗?
无聊。。。。。。。。
作者: Prescott    时间: 2008-7-9 12:20
原帖由 roadrunner 于 2008-7-9 10:46 发表
无OOO, 可能连CACHE都会被剥掉, 其实就是CELL的X86版

你放心cache起码比P54C大。
何况是完全coherence的。
{lol:]
作者: amuly    时间: 2008-7-9 12:33
原帖由 Prescott 于 2008-7-9 12:20 发表

你放心cache起码比P54C大。
何况是完全coherence的。
{lol:]

你们讨论的专业用途我们不感兴趣啊

游戏性能。。。。

看llb似乎很牛逼,起码得比gtx280强吧
作者: itany    时间: 2008-7-9 12:35
原帖由 我系高手! 于 2008-7-9 11:50 发表


真够250的,一代奔腾有这么多核心吗?
无聊。。。。。。。。


Intel从奔腾开始搞集群的,从此大机、小鸡走上了完蛋的道路……
你完全可以认为是集成度提高了啊
作者: itany    时间: 2008-7-9 12:37
原帖由 beer966 于 2008-7-9 11:40 发表
不过国家的曙光5000计划搭配皓龙处理器........{biggrin:]


中国是发展中国家,慢人一拍很正常
作者: kisazhu    时间: 2008-7-9 12:52
原帖由 itany 于 2008-7-9 12:37 发表


中国是发展中国家,慢人一拍很正常



是落后国家吧,除了靠吃资源...坐吃山空还能做啥?
作者: tomsmith123    时间: 2008-7-9 13:04
标题: 回复 19# itany 的帖子
IBM Power7 是Opteron 引脚兼容的,下一代HPCS 和PETA-SCALE 同构机器,会比较多用Opteron 和Power7。
AMD 的K8L 核心Opteron 在高性能计算领域,单位功耗和单位成本的性能,都要高于Intel 同频处理器。
不过曙光用AMD 问题会比较多,AMD 的配套软件明显不足,曙光的能力也有限,这和AMD SUN 大规模用Opteron 不能类比。
作者: Prescott    时间: 2008-7-9 13:38
标题: 回复 22# tomsmith123 的帖子
Nehalem一出,HPC领域暂时就没什么好谈的了。有竞争也是和Larrabee的竞争
作者: naze    时间: 2008-7-9 13:40
原帖由 Prescott 于 2008-7-9 13:38 发表
Nehalem一出,HPC领域暂时就没什么好谈的了。有竞争也是和Larrabee的竞争


补充两个新消息(zz):
1. 第一代的Larrabee表现会很差,可能很难和nvidia接近,希望大家有心理准备,Intel比较寄希望于第二代产品
2. 光是拼渲染可能很难是nividia的对手,Intel比较希望靠物理引擎胜出。
作者: Prescott    时间: 2008-7-9 13:50
原帖由 naze 于 2008-7-9 13:40 发表


补充两个新消息(zz):
1. 第一代的Larrabee表现会很差,可能很难和nvidia接近,希望大家有心理准备,Intel比较寄希望于第二代产品
2. 光是拼渲染可能很难是nividia的对手,Intel比较希望靠物理引擎胜出。

Havok,Larrabee大概要比G80快一个数量级。

[ 本帖最后由 Prescott 于 2008-7-9 13:52 编辑 ]
作者: elisha    时间: 2008-7-9 13:52
原帖由 tomsmith123 于 2008-7-9 13:04 发表
IBM Power7 是Opteron 引脚兼容的,下一代HPCS 和PETA-SCALE 同构机器,会比较多用Opteron 和Power7。
AMD 的K8L 核心Opteron 在高性能计算领域,单位功耗和单位成本的性能,都要高于Intel 同频处理器。
不过曙光用 ...
{shocked:]TOP500里Intel占75%?
做超级计算机的都是BC?
作者: acqwer    时间: 2008-7-9 13:52
原帖由 tomsmith123 于 2008-7-9 13:04 发表
IBM Power7 是Opteron 引脚兼容的,下一代HPCS 和PETA-SCALE 同构机器,会比较多用Opteron 和Power7。
AMD 的K8L 核心Opteron 在高性能计算领域,单位功耗和单位成本的性能,都要高于Intel 同频处理器。
不过曙光用 ...

单位成本的确是AMD的比较高(不计回扣),但是单位功耗……四路的K10倒是和intel双路的差不多。

PS:无论怎么看,Power6的性耗比都是最差的,当年是谁说Power6只有130W的?

[ 本帖最后由 acqwer 于 2008-7-9 13:55 编辑 ]
作者: acqwer    时间: 2008-7-9 13:54
原帖由 Prescott 于 2008-7-9 13:50 发表

Havok,Larrabee大概要比G80快一个数量级。

玩游戏时大家的显卡基本上跑图像都不够,intel还是先让游戏把四核心跑满吧。
作者: Edison    时间: 2008-7-9 13:59
原帖由 Prescott 于 2008-7-9 13:50 发表
Havok,Larrabee大概要比G80快一个数量级。


你的数据怎么获得?

G70用havok fx就能轻易获得CPU的10倍性能,G80在这方面起码是G70的两倍,结果Larrabee是CPU的200倍?你确定?
作者: caesardox    时间: 2008-7-9 14:01
出来再说吧,Larrabee的各种流言烦都快把偶烦死鸟!
作者: tomsmith123    时间: 2008-7-9 14:01
标题: 回复 26# elisha 的帖子
TOP500 中,INTEL 的主要伙伴是DELL,当然HP 也做了一些基于X86 架构的。
TOP500 前10 你可以看一下,IBM 还是最强的超级计算机制造商。HPCS 两家,是IBM 和Cray。
IBM 对于AMD 的支持,不是毫无原因的,也包括技术原因。
作者: Prescott    时间: 2008-7-9 14:02
原帖由 Edison 于 2008-7-9 13:59 发表


你的数据怎么获得?

G70用havok fx就能轻易获得CPU的10倍性能,G80在这方面起码是G70的两倍,结果Larrabee是CPU的200倍?你确定?

G70也就是和顶级的Quad Core一个档次。
作者: Azl2    时间: 2008-7-9 14:10
300W  我只看到这个.....历史证明,怪物都没有好下场
作者: tomsmith123    时间: 2008-7-9 14:11
标题: 回复 27# acqwer 的帖子
就我手里的workload,大致上单位功耗,AMD K8L 架构高于Xeon Quad。
国内做两台百万亿次机器,联想是Intel 处理器,从机柜效率和性能效率,都要比曙光目前的5000A略低。
作者: amd64_ice    时间: 2008-7-9 14:11
-_- -_- -_- -_- -_- 无视之
作者: acqwer    时间: 2008-7-9 14:14
原帖由 tomsmith123 于 2008-7-9 14:11 发表
就我手里的workload,大致上单位功耗,AMD K8L 架构高于Xeon Quad。
国内做两台百万亿次机器,联想是Intel 处理器,从机柜效率和性能效率,都要比曙光目前的5000A略低。

top500中也有功耗数据,你可以自己去看。
http://www.top500.org/list/2008/06/100

对了,Top500中,IBM的HPC大部分都是用intel的,没一台用K10,的确不是毫无原因的,也包括技术原因。

[ 本帖最后由 acqwer 于 2008-7-9 14:16 编辑 ]
作者: Edison    时间: 2008-7-9 14:18
原帖由 acqwer 于 2008-7-9 14:14 发表
top500中也有功耗数据,你可以自己去看。
http://www.top500.org/list/2008/06/100
对了,Top500中,IBM的HPC大部分都是用intel的,没一台用K10,的确不是毫无原因的,也包括技术原因。


还真难说:

http://www.lanl.gov/roadrunner/
作者: tomsmith123    时间: 2008-7-9 14:22
标题: 回复 36# acqwer 的帖子
第一名Roadrunner 用的就是Opteron,前20内,基本是蓝色基因方案,除了Roadrunner。
K8L 上市的时候,Roadrunner 已经基本完成硬件设计,所以没有用上,IBM 之后的机器会普通用K8L。
作者: Prescott    时间: 2008-7-9 14:23
原帖由 tomsmith123 于 2008-7-9 14:11 发表
就我手里的workload,大致上单位功耗,AMD K8L 架构高于Xeon Quad。
国内做两台百万亿次机器,联想是Intel 处理器,从机柜效率和性能效率,都要比曙光目前的5000A略低。

如果某个Workload,Barcelona能比Harpertown快20%,那Nehalem基本上是Barcelona两倍。
如果某个Workload,Barcelona现在就比Harpertown慢,那Nehalem出来也不会有什么变化。
AMD的兄弟现在用来攻击别人的,半年后就会加倍的打在自己脸上。
{lol:]

[ 本帖最后由 Prescott 于 2008-7-9 14:25 编辑 ]
作者: Edison    时间: 2008-7-9 14:24
原帖由 Prescott 于 2008-7-9 14:02 发表
G70也就是和顶级的Quad Core一个档次。


其实看看一些东西倒也不奇怪,G80是06年产品,Larrabee是09年的。

按照NVIDIA的发展策略,GT200的下一代性能大致上是G80的4倍,结果和你宣称的Larrabee性能也差不到哪里去,最终还是看到时候的实际表现。
作者: tomsmith123    时间: 2008-7-9 14:26
标题: 回复 36# acqwer 的帖子
另外,HPCS 中标的另外一方,Cray,也是AMD 的大客户。
作者: GZboy    时间: 2008-7-9 14:29
提示: 作者被禁止或删除 内容自动屏蔽
作者: tomsmith123    时间: 2008-7-9 14:31
6月TOP500 前20的分布是这样,蓝色基因方案,7个,AMD Opteron 7个,Intel 4个,Power 6 2个,Cell 一个。其中Roadrunner 是异构的。7

[ 本帖最后由 tomsmith123 于 2008-7-9 14:32 编辑 ]
作者: maphis    时间: 2008-7-9 14:31
第一款Pentium处理器从1989年投入开发,代号P5,1993年推出,采用800nm工艺,频率60/66MHz;次年,“P54C”登场

1993年的次年不是94年吗?怎么变成90年了呢?这么算来才不过14年
作者: Edison    时间: 2008-7-9 14:32
原帖由 GZboy 于 2008-7-9 14:29 发表
看看GT200的鸟样就知道下一代性能没到2倍以前就遭遇工艺瓶颈!


这完全取决于具体的应用,你看看那个美杜莎的测试结果,在没有触及内存容量上限的情况下,1280x1024 4AA GTX 280是51fps,9800GTX是15.8fps。
作者: acqwer    时间: 2008-7-9 14:33
原帖由 tomsmith123 于 2008-7-9 14:22 发表
第一名Roadrunner 用的就是Opteron,前20内,基本是蓝色基因方案,除了Roadrunner。
K8L 上市的时候,Roadrunner 已经基本完成硬件设计,所以没有用上,IBM 之后的机器会普通用K8L。

Roadrunner用的是Cell,这是TOP500官方认定的。

这一期Green500中前一百内没一台AMD的,AMD平台最高的排112位。
作者: Prescott    时间: 2008-7-9 14:35
原帖由 Edison 于 2008-7-9 14:24 发表


其实看看一些东西倒也不奇怪,G80是06年产品,Larrabee是09年的。

按照NVIDIA的发展策略,GT200的下一代性能大致上是G80的4倍,结果和你宣称的Larrabee性能也差不到哪里去,最终还是看到时候的实际表现。

本来就是就不奇怪,根据已有的Larrabee spec认真分析就可以得出的结论。而你听到从我口中说出来就要大吃一惊。说明什么呢?说明你头脑中已经开始选择性逃避思考。
反思一下吧。
作者: tomsmith123    时间: 2008-7-9 14:36
标题: 回复 46# acqwer 的帖子
仔细看看Roadrunner 的结构。。。
作者: GZboy    时间: 2008-7-9 14:36
提示: 作者被禁止或删除 内容自动屏蔽
作者: Edison    时间: 2008-7-9 14:38
原帖由 Prescott 于 2008-7-9 14:35 发表
本来就是就不奇怪,根据已有的Larrabee spec认真分析就可以得出的结论。而你听到从我口中说出来就要大吃一惊。说明什么呢?说明你头脑中已经开始选择性逃避思考。
反思一下吧。

我只是好奇你的结果是如何得来,例如是不是都是在都实现硬件加速的情况下获得,这点你没有阐明,当然要表示一个问号,如果是只是Larrabee打开硬件加速,而G80没有打开硬件加速,这样的结果也就没有对比意义。
作者: Edison    时间: 2008-7-9 14:40
原帖由 GZboy 于 2008-7-9 14:36 发表
我指的是照GT200这样发展,下一代芯片性能没到2倍之前,
芯片面积就大的做不下去,热量高得压不下去,频率超死也拉不上去:lol:


下一代芯片NVIDIA肯定会用45nm级别的工艺,在同样的面积上实现两倍的性能一点也不奇怪。

GTX280的耗电要比4850 Crossfire低多了,这意味着在目前的架构下,AMD的方案需要花更多的电力才能达到相当获得略高的性能,芯片面积和耗电完全是没有直接相关联的。
作者: acqwer    时间: 2008-7-9 14:43
标题: 回复 48# tomsmith123 的帖子
原来提供了3%运算能力的OP才是roadrunner的CPU啊

对了,Cray转投intel阵营的事你不会不知道吧。
作者: henry9527    时间: 2008-7-9 14:45
CPU集成GPU的时候要到了
作者: tomsmith123    时间: 2008-7-9 14:46
标题: 回复 52# acqwer 的帖子
异构结构里面,本身宿主机就不承担主要计算的,看配比了。
HPC 谁投奔谁都很正常。
作者: Prescott    时间: 2008-7-9 14:48
原帖由 Edison 于 2008-7-9 14:38 发表

我只是好奇你的结果是如何得来,例如是不是都是在都实现硬件加速的情况下获得,这点你没有阐明,当然要表示一个问号,如果是只是Larrabee打开硬件加速,而G80没有打开硬件加速,这样的结果也就没有对比意义。

Larrabee打开硬件加速?这个话说的就有些外行了。
作者: GZboy    时间: 2008-7-9 14:49
提示: 作者被禁止或删除 内容自动屏蔽
作者: GZboy    时间: 2008-7-9 14:51
提示: 作者被禁止或删除 内容自动屏蔽
作者: Edison    时间: 2008-7-9 14:52
原帖由 Prescott 于 2008-7-9 14:48 发表
Larrabee打开硬件加速?这个话说的就有些外行了。


如果只是和没有硬件加速的G80+Havok对比,那你这个结果实际上是和G80平台上的CPU对比,这样的结果没有啥意思。
作者: Prescott    时间: 2008-7-9 14:55
原帖由 Edison 于 2008-7-9 14:52 发表


如果只是和没有硬件加速的G80+Havok对比,那你这个结果实际上是和G80平台上的CPU对比,这样的结果没有啥意思。

看样子我高估了你的思考能力。
{sweat:]
不说直白点你还不容易理解,这么说吧,1个Larrabee的Core,相当于一块G70,(单指Havok,其他的不要妄自推论),剩下的简单换算不用我教了吧

[ 本帖最后由 Prescott 于 2008-7-9 14:56 编辑 ]
作者: GZboy    时间: 2008-7-9 14:55
提示: 作者被禁止或删除 内容自动屏蔽
作者: Edison    时间: 2008-7-9 14:58
原帖由 GZboy 于 2008-7-9 14:49 发表
台积电的工艺比INTEL落后一代,即使是同代下台积电硅片的性能也比INTEL要差,况且最近传闻台积电的45nm不顺利:lol:
4850 功耗是110W吧  GTX280可是236W,GTX280的耗电要比4850 Crossfire低多了??? 我没听说 ...


TSMC是比Intel落后大约半代工艺,我估计年底就能看到45nm half node的产品,这并不落后Intel多少。

看纸面上写的东西有什么意思?AMD还说过R600比G80强很多,这你都信?

作者: dirl    时间: 2008-7-9 15:00
原帖由 beer966 于 2008-7-9 11:40 发表
不过国家的曙光5000计划搭配皓龙处理器........{biggrin:]

不是计划,是已经搭配出来了
作者: Edison    时间: 2008-7-9 15:04
原帖由 Prescott 于 2008-7-9 14:55 发表
看样子我高估了你的思考能力。
{sweat:]
不说直白点你还不容易理解,这么说吧,1个Larrabee的Core,相当于一块G70,(单指Havok,其他的不要妄自推论),剩下的简单换算不用我教了吧


那和QX9550对比是怎样?
作者: Prescott    时间: 2008-7-9 15:07
原帖由 Edison 于 2008-7-9 15:04 发表


那和QX9550对比是怎样?

晕死,你不会自己算啊,自己去看我32楼说什么了
作者: GZboy    时间: 2008-7-9 15:08
提示: 作者被禁止或删除 内容自动屏蔽
作者: 坏人t    时间: 2008-7-9 15:09
提示: 作者被禁止或删除 内容自动屏蔽
作者: WhiteCat.Zero    时间: 2008-7-9 15:11
p5 就敢出来喝硬威达叫板了 如果素肉那还不得在天上飞啊
作者: Edison    时间: 2008-7-9 15:12
原帖由 Prescott 于 2008-7-9 15:07 发表
晕死,你不会自己算啊,自己去看我32楼说什么了

我不了解QX9550的状况,这个东西还是和都是x86对比才比较方便了解,G70的数据是NVIDIA提供的,15000个刚体有62fps,P4EE 955是6.2fps,你的数据是多少个刚体下的呢?
作者: Edison    时间: 2008-7-9 15:16
原帖由 GZboy 于 2008-7-9 15:08 发表
群众的眼光是雪亮的,哈哈
跑了几个网站,只有PCI的GTX280功耗可以向8800GTX看齐{lol:]

PCINLIFE测试的是耗电量,而这些媒体提供的功耗指标这个东西太因人而异了。

这些媒体在测试功耗的时候,都是给出最大值,如果没有测试的仪器没有纪录功能,这意味着测试的数据完全凭人肉眼目不转睛地盯着测试仪器。

例如:


PCINLIFE的耗电量测试耗时大约1小时,包括了多个分辨率、模式下的结果,是真正的耗电量,而不是某一个时刻肉眼观察到的最大值,能够可以重复验证,这样的结果才是最科学的,你嘴头上说某个产品的耗电大,但是实际上该系统所需要交纳的电费却更少,这才是关键。
作者: GZboy    时间: 2008-7-9 15:53
提示: 作者被禁止或删除 内容自动屏蔽
作者: Edison    时间: 2008-7-9 15:57
原帖由 GZboy 于 2008-7-9 15:53 发表
为什么只有PCI的GTX280功耗可以向8800GTX看齐,莫非PCI拿到的是低功耗特别版{lol:]
按你的说法,也就是别的媒体都是测一瞬间的功耗,而且运气都特别好,抓到了GTX280高功耗的一瞬间{titter:]  


我们测试的都是市场上的版本,不是什么低功耗版本。

我们的结果可以重复验证,如果你有一个电表,同样获得和我们一样的结果。
作者: 2000wcw    时间: 2008-7-9 15:57
经典的妈妈叉再出江湖....
作者: Edison    时间: 2008-7-9 16:08
原帖由 Richoer 于 2008-7-9 16:02 发表
王婆卖瓜~
连续运行6个3dmark06原来就能自称为最科学吗?
这种情况在平时运用中不知道有没有千分之一的几率
毫无代表性
如果老兄你有过认真点的测试过,应该知道3dmark06默认运行的时候显卡并不满载
而且每隔1~2分钟就要空闲下来loading一下
你能举出什么时候还会有这样的应用情况吗?
讨论一下,不要ban我id


这样的情况很多,例如跑COD4的时候,如果你打的顺畅,很快就切换一次场景了,如果挂掉,就得重load一次场景。
作者: michaelzyh    时间: 2008-7-9 16:16
提示: 作者被禁止或删除 内容自动屏蔽
作者: GZboy    时间: 2008-7-9 16:19
提示: 作者被禁止或删除 内容自动屏蔽
作者: Edison    时间: 2008-7-9 16:19
原帖由 michaelzyh 于 2008-7-9 16:16 发表
打自己嘴巴了吧,你讨论的前提应是显卡最大性能,亦即是显卡Full load时的功耗,是显卡的最大热负担。
而不是用跑跑停停的功耗去比最大性能


PCINLFIE测试的是耗电量而不是某一时刻的功耗,其中就包含了显卡高负荷下的耗电量,至于那些最大功耗,我在前面也引用了techreport的测试图表,你自己看看4850 CF比GTX 280高多少。
作者: michaelzyh    时间: 2008-7-9 16:22
提示: 作者被禁止或删除 内容自动屏蔽
作者: Edison    时间: 2008-7-9 16:23
原帖由 GZboy 于 2008-7-9 16:19 发表
这种测试方法是最有利于GTX280
GTX280比起那些性能稍微差一点点而功耗少一截的显卡,可以早点跑完测试,
这样省下来的不单单是时间,而且还省了除显卡以外其它配件的耗电。
结果——这样下来,功耗高的卡反而比功耗低的卡显得“功耗更低了”
所以这样的测试方法与其说是在测显卡功耗,还不如说是测某个任务的整机功耗。
而这种测试方法在游戏中是毫无意义,游戏不会因为你的显卡快一点点,就提前“爆机”(打通关)了。
今天又多嘴了


PCINLIFE使用这样的方式来测试耗电是很久了,我怎么没看到在RADEON 2000、3000的时候你跑出来说这样的测试方式最有利于AMD?

把跑6个3DMARK 06说成是节省时间的说法是不正确的,3DMARK06每个测试项目运行的时间都是基本一致的,这是3DMARK06设计的基点。
作者: toshibacom    时间: 2008-7-9 16:33
原帖由 akaferl 于 2008-7-9 16:21 发表
看好Larrabee,显卡的结构应该要有质的变化了。
至于工艺,现在连amd都没有搞定45nm,至于那些所谓的台积电省省吧。
intel最强是工艺,用最好的工艺,哪怕粗鲁的堆积都胜过落后的精品。

GPU的表现是极端依赖显卡驱动的,我对intel的工艺和硬件规格没有怀疑,但是intel能否从一开始就编写出稳定高效兼容性强的驱动,持保留态度。毕竟NV和AMD(ATI)在驱动优化这方面有了很长时间的技术积累。
作者: Edison    时间: 2008-7-9 16:33
我这里还保存着运行完成耗电测试的时间纪录:

3D Mark 06 1280/1680/1920 noaa/noaf+4aa/16af:

RADEON HD 4850 CF:
start:22:38:43
end:23:48:23
total:1:09:40

GeForce GTX 280:       
start:22:28:39
end:23:37:45
total:1:09:06

这些纪录都是电脑自动记录下来的。

相差仅仅有34秒。
作者: GZboy    时间: 2008-7-9 16:34
提示: 作者被禁止或删除 内容自动屏蔽
作者: Edison    时间: 2008-7-9 16:39
如果按照AMD的说法,3DMARK03的GT4是最耗电的。

实际上场景越简单,测试的东西越简单,越是耗电,跑fillrate是最耗电的,但是这样的结果更加不能反映实际的游戏耗电。
作者: ultraboy    时间: 2008-7-9 16:45
nv傻啊?没有那么高功耗标那么高做什么,还要麻烦管理员用“最科学”的测试方法给正名。
作者: Edison    时间: 2008-7-9 16:45
现在再看看Prescott的那个Havok Larrabee说法,我很好奇,NVIDIA的驱动现在根本不支持Havok-FX,Prescott如何得出10倍于G80?难道真的是拿旧的G70数据往上套:p?
作者: Edison    时间: 2008-7-9 16:48
原帖由 ultraboy 于 2008-7-9 16:45 发表
nv傻啊?没有那么高功耗标那么高做什么,还要麻烦管理员用“最科学”的测试方法给正名。


最高功耗本来就是很难达到的,GT200或者说现在的GPU里面有大量功能各异的单元,要做到充分利用的可能性相当低。

PCINLIFE的测试表明了在类似实际游戏的引用中GTX 280的耗电与8800GTX相当,比4850 CF低不少。
作者: GZboy    时间: 2008-7-9 16:48
提示: 作者被禁止或删除 内容自动屏蔽
作者: Edison    时间: 2008-7-9 16:51
原帖由 GZboy 于 2008-7-9 16:48 发表
呵呵~以后要改测试方法啦?{lol:]
我觉得IDLE 和 Full load Power还是比较有参考意义的。


测试方法不需要改变。

full load可能对购买电源比较有点帮助,对参考显卡的实际耗电并没有实际参考意义,而且变化很大,换一个人的话测试结果就可能有不同了,你也无法根据这个full load知道到底需要花多少电费。
作者: roadrunner    时间: 2008-7-9 16:59
CELL的SPE没有CACHE, 是因为IBM认为CELL所适应的暴力运算场合CACHE不重要

如果Larrabee每个核有不小的CACHE, 那应当是INTEL希望Larrabee能干比CELL更多的东西
作者: Edison    时间: 2008-7-9 17:00
我觉得更重要的是Intel希望用1 cycle的L1 cache来弥补寄存器相对较少的问题。

其实不仅仅是每个core都有iL1,我觉得larrabee的iL2才是最耀眼的地方。
作者: roadrunner    时间: 2008-7-9 17:06
原帖由 mousefire 于 2008-7-9 16:59 发表


不懂不要乱说么,皓龙还是很强的,当然不是表现在给你打游戏上


虽然我是铁杆A FAN, 可是不得不承认, Nehalem扒掉了A U最后的底裤...............
作者: GZboy    时间: 2008-7-9 17:08
提示: 作者被禁止或删除 内容自动屏蔽
作者: 花泥    时间: 2008-7-9 17:09
用folding @ home测一下就是了,N A都支持,简单计算,接近最大功耗
作者: saintangel    时间: 2008-7-9 17:09
原帖由 GZboy 于 2008-7-9 16:19 发表



这种测试方法是最有利于GTX280

GTX280比起那些性能稍微差一点点而功耗少一截的显卡,可以早点跑完测试,

这样省下来的不单单是时间,而且还省了除显卡以外其它配件的耗电。

结果——这样下来,功耗高 ...


笑掉大牙……你究竟懂不懂跑一遍Mark06的时间是几乎固定一致的?
不懂就不要在这里大放厥词,徒增笑柄
作者: Edison    时间: 2008-7-9 17:11
原帖由 GZboy 于 2008-7-9 17:08 发表
情况是一样的,你的方法也无法反映实际游戏时花了多少电费。
而且这种测试方法不公平。


3DMARK06采用的许多图形技术都在现在的游戏中采用,作为一个大家都有的东西,用来测试耗电是相当合理的。
作者: GZboy    时间: 2008-7-9 17:31
提示: 作者被禁止或删除 内容自动屏蔽
作者: boris_lee    时间: 2008-7-9 19:14
原帖由 ultraboy 于 2008-7-9 16:45 发表
nv傻啊?没有那么高功耗标那么高做什么,还要麻烦管理员用“最科学”的测试方法给正名。

参见intel双核U的万年65W TDP:sweatingbullets:
作者: itany    时间: 2008-7-9 19:31
原帖由 tomsmith123 于 2008-7-9 14:22 发表
第一名Roadrunner 用的就是Opteron,前20内,基本是蓝色基因方案,除了Roadrunner。
K8L 上市的时候,Roadrunner 已经基本完成硬件设计,所以没有用上,IBM 之后的机器会普通用K8L。


Opteron就是起到一个交换机的作用,如果用以太网搭集群的人是不是也可以说集群里边包含了交换机,也就是用了ARM呢?
作者: itany    时间: 2008-7-9 19:35
原帖由 toshibacom 于 2008-7-9 16:33 发表

GPU的表现是极端依赖显卡驱动的,我对intel的工艺和硬件规格没有怀疑,但是intel能否从一开始就编写出稳定高效兼容性强的驱动,持保留态度。毕竟NV和AMD(ATI)在驱动优化这方面有了很长时间的技术积累。


Larrabee在跑HPC应用的时候还需要驱动?
真有趣……
作者: Edison    时间: 2008-7-9 19:37
原帖由 itany 于 2008-7-9 19:35 发表
Larrabee在跑HPC应用的时候还需要驱动?
真有趣……


如果缺乏足够的桌面消费市场来支撑产量,Larrabee不会取得成功,它必须在消费类市场能获得大众的青睐,否则只是另一个Cell-like的产品。
作者: Edison    时间: 2008-7-9 19:39
原帖由 itany 于 2008-7-9 19:31 发表
Opteron就是起到一个交换机的作用,如果用以太网搭集群的人是不是也可以说集群里边包含了交换机,也就是用了ARM呢?


交换机根本无法参与运算,而Roadrunner的Opteron是可以直接参与运算的。
作者: Prescott    时间: 2008-7-9 20:20
原帖由 Edison 于 2008-7-9 19:37 发表


如果缺乏足够的桌面消费市场来支撑产量,Larrabee不会取得成功,它必须在消费类市场能获得大众的青睐,否则只是另一个Cell-like的产品。

嘿嘿,Intel会把它集成在CPU里的,你想不想要都得要。{lol:]
作者: GZboy    时间: 2008-7-9 20:40
提示: 作者被禁止或删除 内容自动屏蔽




欢迎光临 POPPUR爱换 (https://we.poppur.com/) Powered by Discuz! X3.4