POPPUR爱换

标题: Intel: GTX 280 也就顶多是 i7 960 的 14 倍而已 [打印本页]

作者: Edison    时间: 2010-6-23 21:17
标题: Intel: GTX 280 也就顶多是 i7 960 的 14 倍而已
http://blogs.nvidia.com/ntersect ... pus-says-intel.html

06/23/2010: “GPUs Are Only Up To 14 Times Faster than CPUs” says Intel
By Andy Keane, posted Jun 23 2010 at 06:00:00 AM

It’s a rare day in the world of technology when a company you compete with stands up at an important conference and declares that your technology is *only* up to 14 times faster than theirs. In fact in all the 26 years I’ve been in this industry, I can’t recall another time I’ve seen a company promote competitive benchmarks that are an order of magnitude slower.
The landmark event took place a few hours ago at the International Symposium on Computer Architecture (ISCA) in Saint-Malo, France, interestingly enough, the same event where our Chief Scientist Bill Dally is receiving the prestigious 2010 Eckert-Mauchly Award for his pioneering work in architecture for parallel computing.

At this event, Intel presented a technical paper where they showed that application kernels run up to 14 times faster on a NVIDIA GeForce GTX 280 as compared with an Intel Core i7 960. Many of you will know, this is our previous generation GPU, and we believe the codes that were run on the GTX 280 were run right out-of-the-box, without any optimization. In fact, it’s actually unclear from the technical paper what codes were run and how they were compared between the GPU and CPU. It wouldn’t be the first time the industry has seen Intel using these types of claims with benchmarks.

The paper is called “Debunking the 100x GPU vs CPU Myth” and it is indeed true that not *all* applications can see this kind of speed up, some just have to make do with an order of magnitude performance increase. But, 100X speed ups, and beyond, have been seen by hundreds of developers. Below are just a few examples that can be found on CUDA Zone, of other developers that have achieved speed ups of more than 100x in their applications.

Developer
Speed Up
Reference
Massachusetts
General Hospital
300x
http://www.opticsinfobase.org/oe/abstract.cfm?uri=oe-17-22-20178
University of Rochester
160x
http://cyberaide.googlecode.com/ ... 08-cuda-biostat.pdf
University of  Amsterdam
150x
http://arxiv.org/PS_cache/arxiv/pdf/0709/0709.3225v1.pdf
Harvard University
130x
http://www.springerlink.com/cont ... 0e58a313d95581cfd40π=49
University of Pennsylvania
130x
http://ic.ese.upenn.edu/abstracts/spice_fpl2009.html
Nanyang Tech, Singapore
130x
http://www.opticsinfobase.org/abstract.cfm?URI=oe-17-25-23147
University of  Illinois
125x
http://www.nvidia.com/object/cud ... l#state=detailsOpen;aid=c24dcc0f-c60c-45f9-8d57-588e9460a58f
Boise State
100x
http://coen.boisestate.edu/senocak/files/BSU_CUDA_Res_v5.pdf
Florida Atlantic University
100x
http://portal.acm.org/citation.c ... mp;CFTOKEN=90295264
Cambridge University
100x
http://www.wbic.cam.ac.uk/~rea1/research/AIRWC.pdf
The real myth here is that multi-core CPUs are easy for any developer to use and see performance improvements. Undergraduate students learning parallel programming at M.I.T. disputed this when they looked at the performance increase they could get from different processor types and compared this with the amount of time they needed to spend in re-writing their code. According to them, for the same investment of time as coding for a CPU, they could get more than 35x the performance from a GPU. Despite substantial investments in parallel computing tools and libraries, efficient multi-core optimization remains in the realm of experts like those Intel recruited for its analysis. In contrast, the CUDA parallel computing architecture from NVIDIA is a little over 3 years old and already hundreds of consumer, professional and scientific applications are seeing speedups ranging from 10 to 100x using NVIDIA GPUs.

At the end of the day, the key thing that matters is what the industry experts and the development community are saying and, overwhelmingly, these developers are voting by porting their applications to GPUs.
作者: guaike    时间: 2010-6-23 21:20
看不懂!!!!!!!!!
作者: Edison    时间: 2010-6-23 21:23
顺便奉送 IBM 的文章:

Believe it or Not! Multicore CPUs can Match GPUs for FLOP-intensive Applications!|

http://domino.watson.ibm.com/library/CyberDig.nsf/1e4115aea78b6e7c85256b360066f0d4/9192e6536facfcef85257720005a0265!OpenDocument&Highlight=0,Bordawekar
作者: gz_easy    时间: 2010-6-23 21:28
E大的Title应译为“Intel: GTX 280最多只是比 i7 960 快 14 倍”。
作者: 哇沙米    时间: 2010-6-23 21:31
看不懂. 能翻译下么
作者: pangauto    时间: 2010-6-23 21:35
E大发的东西都比较深奥
作者: gz_easy    时间: 2010-6-23 21:54
Intel和IBM都不约而同地把GT200作为目标。
作者: Sirlion    时间: 2010-6-23 21:55
因为nv整天说通用计算要取代cpu嘛……
作者: stcshy_3    时间: 2010-6-23 22:35
提示: 作者被禁止或删除 内容自动屏蔽
作者: dudujam    时间: 2010-6-24 00:51
通用计算,看看。
作者: ramiel    时间: 2010-6-24 02:03
14个I7 960什么价……280什么价……
作者: saskey7    时间: 2010-6-24 02:19
14个I7 960什么价……280什么价……
ramiel 发表于 2010-6-24 02:03


汗,能这么比么
作者: 3118595    时间: 2010-6-24 02:24
求翻译帝
作者: zxl7288436    时间: 2010-6-24 08:07
这个···价格差的也太多了···看起来INTEL是在眼红吧?
作者: henry9527    时间: 2010-6-24 08:28
看得有些头大…………
作者: 2ndWeapon    时间: 2010-6-24 09:04
快14倍难道少了?这已经应该算压倒性的优势了。
作者: alleny    时间: 2010-6-24 09:19
本帖最后由 alleny 于 2010-6-24 09:22 编辑
E大的Title应译为“Intel: GTX 280最多只是比 i7 960 快 14 倍”。
gz_easy 发表于 2010-6-23 21:28



    LZ比你翻译的好,呵呵。不过我觉得Intel也在忽悠,14倍,按照intel的速度的发展,多少年能达到目前的14倍;如果Intel突然把cpu提高14倍,那Intel有会少赚多少钱呢?Intel也是嘴上说说而已,用不着藐视NV。
作者: garou    时间: 2010-6-24 09:29
文章先讽刺了一番,首先这种竞争对手的产品之比自己快XX倍的测试史无前例。
然后指出这仅仅是nv上代产品,而且GPU代码未经优化云云
反正意思是intel已经没药救了~
作者: stalker-cop    时间: 2010-6-24 10:00
我刚把客户的代码移植到GPU上,比cpu快了400倍。具体是30多个小时到5分钟。cpu是intel i7 920 ,gpu是gtx 480。
并不是gpu比cpu快这么多,而是和算法密切相关。
作者: 餐具    时间: 2010-6-24 10:13
X86要走到头了?
作者: 66666    时间: 2010-6-24 10:20
就看AVX能不能抢回点市场了
作者: gzpony    时间: 2010-6-24 10:24
i7 960推出的时间是什么时候,GTX280是什么时候?

14个i7 960的价格是多少,还有跑这14个i7的主板和电源等等的成本如何?GTX280又是什么价格。

文章说intel只承认14倍的差别,而且还只和NV的前代比。但文章在下面举了很多超过100倍的例子
作者: yuno2005    时间: 2010-6-24 11:07
GPU取代CPU? NV什么时候学会凤姐的措辞了?
作者: 什么?    时间: 2010-6-24 11:12
GPU取代CPU? NV什么时候学会凤姐的措辞了?
yuno2005 发表于 2010-6-24 11:07



    3年前!
作者: ITers    时间: 2010-6-24 12:19
这真是一个IT界罕见的日子,当你的同行竞争对手在一个重要大会上声称,你们的技术仅比他们的快14倍!实际上,自从我从事这个行当26年来,还未见过这样的公司在进行Benchmark跑分PK时声称比竞争对手慢一个数量级的!

这个里程碑式的事件就发生在几小时之前的位于法国圣马洛的国际计算机架构大会上。同样很罕见的事情也发生在我们的首席科学家Bill Dally身上,他因在计算机并行计算架构方面的出色工作而获得极具声誉的2010 Eckert-Mauchly大奖。

此这次大会,Intel发表了一项技术报告,报告显示在NVIDIA GeForce GTX 280 同 Intel Core i7 960 进行运算PK时,前者的运行速度竟比后者快14倍。可能大家都知道,这还只是我们上一代的GPU。我们相信,这次PK所运行的代码就是普普通通的代码,没有针对我们的GPU进行过任何优化。实际上,从他们给出的技术报告里也无法搞清楚他们用的是什么代码,以及他们是怎样进行PK的。这样的PK对Intel来讲其实也不是第一次了。

他们的报告号称“打破GPU比CPU快100多倍的神话”,其实这并不过分,并非所有程序都能快100多倍,有些也就快10几倍罢了。然而,我们要强调的是,快100多倍甚至更多倍是被许多童鞋都见证过的。下面就是一些CUDA Zone上的案例,这些案例是一些童鞋用了我们的技术后,他们的程序运行速度获得了100多倍的提升。

。。。

(若干案例翻译省略)

。。。

这里真正的神话是对任何一位童鞋来讲,多核CPU更容易使用,性能提升也更省事。麻省理工的学生们在学习并行程序设计时,为了观察从不同类型的处理器所获取的性能提升,他们为每种处理器重写代码并比较为此所消耗的时间。据他们的观察,为一种CPU编写代码所用的时间如果用在GPU上,所获取得性能提升差不到高达35倍多。在专业领域,需要为并行计算工具、运行库以及多核效率优化技术而进行大量投资,比如Intel在他们自己的分析技术上就是如此,然而,NVIDIA的CUDA并行计算架构刚刚问世3年多,就已经拥有好几百用户,以及许多专业、科学程序在使用NVIDIA GPU后获取了10至100多倍的速度提升。

最后,很关键的一点就是,许多行业专家以及开发团体所热衷于讨论的,以及他们绝对多票选择的,正是将他们的应用程序移植到GPU上!
作者: 380    时间: 2010-6-24 12:22
提示: 作者被禁止或删除 内容自动屏蔽
作者: 马由    时间: 2010-6-24 12:47
提示: 作者被禁止或删除 内容自动屏蔽
作者: 坏坏男爵    时间: 2010-6-24 13:09
说句肤浅的:单从晶体管数量来看GPU早已经超过CPU N条街了,不过CPU跟GPU的架构完全不一样,所以不能简单的等效。相比之下,X86的CPU要复杂的得多,GPU只是简单的几条指令,GPU在简单指令,如图形渲染等方面的执行效率比较高,再加上晶体管数量上的优势,快14倍不足为奇。
统一架构的事,现在说还为时尚早,不过这是一个趋势。
Intel的技术核心也是在CPU的架构设计和不断优化的指令集上,NV的优势是在图形处理方面和通用计算,总之各家都有自己的绝活,像“14倍”之类的看看就好。
作者: itany    时间: 2010-6-24 13:23
多线程性能Intel还有新的超多核心架构,NV要提高单线程性能是不可能的,对多数用户来说,后者是最重要的。
作者: 治病救人    时间: 2010-6-24 13:24
提示: 作者被禁止或删除 内容自动屏蔽
作者: itany    时间: 2010-6-24 13:25
新的超多核心架构是指死了2次的拉拉比?
治病救人 发表于 2010-6-24 13:24


Larrabee没有死
作者: gzpony    时间: 2010-6-24 15:40
标题: 有关intel测试280比i7最多快14倍的一个翻译
Intel、NVIDIA争执GPU通用计算效率

驱动之家[原创] 作者:上方文Q 编辑:上方文Q 2010-06-24 15:13:42 507 人阅读 [投递]


Intel、NVIDIA有关CPU、GPU孰优孰劣的争执已经来来回回了很长时间,最新的争论焦点是GPU通用计算加速的效率到底有多高。

在法国圣马洛举行的计算机架构国际研讨会上,Intel的十二位研究人员联合提交了一份论文,通过对比处理器、显卡的实际效率,指出GPU通用计算加速并没有宣传得那么神乎其神。

Intel在论文中表示,他们对一系列重要的吞吐计算内核进行分析后发现,其中很多都支持并行运算,非常适合多核心CPU或者GPU,但是过去几年来,有很多研究声称GPU运行这些内核的速度可以达到多核心CPU的十倍乃至上百倍,因此Intel找来了十四款并行计算内核,使用Core i7-960、GeForce GTX 280进行对比测试,操作系统为SUSE Enterprise Server 11,搭配CUDA 2.3开发套件,结果发现GPU的效率只比多核心CPU高出平均2.5倍,最多的也只有14.9倍。

NVIDIA公司发言人Andy Keane随即回应说,这并不是Intel第一次提出这种测试和论调,但是Intel测试使用的内核很可能并没有针对上一代GeForce GTX 280显卡进行任何优化,他们还有更新、更高效的GeForce GTX 400系列,而且Intel并未公布他们到底运行的是什么代码。

他还强调说,确实并非所有应用程序都能从GPU身上获得巨大加速,有些只有略微提升,但一百倍乃至更高的效率提升是数百开发人员都见识过的,事实上CUDA并行计算架构诞生才不过三年,已经有了数百种消费级、专业级和科学应用可以借助NVIDIA GPU获得数十倍乃至上百倍的性能提升。

Intel公司的一位发言人也迅速出面,声称NVIDIA只看到了论文的一小部分,并未理解整个测试的过程和意义,GPU内核性能也确实经常被夸大其词。

他声称,Core i7、Xeon这样的通用处理器才是绝大多数应用的最佳选择,不管是消费客户端、一般服务器还是高性能计算,因为Intel架构编程模型人所共知,还有成熟的配套开发工具,而且在大范围的工作环境中都有很好的性能表现,而不是仅限特定的应用内核。
作者: 哇沙米    时间: 2010-6-24 15:42
太高端了
作者: gzpony    时间: 2010-6-24 15:46
看得出,intel真的有点急了。

随着HPC top500榜上越来越多用上GF100的产品,原本这些大客户用的就是intel的xeon啊。AMD的比例不高。
一张单就没了至少几千个高端xeon,intel着急也是很正常。
作者: the_god_of_pig    时间: 2010-6-24 15:52
急什么  
又不是市场部在发言

倒是NV回得够快
作者: thy3    时间: 2010-6-24 15:53
看得出,intel真的有点急了。

随着HPC top500榜上越来越多用上GF100的产品,原本这些大客户用的就是inte ...
gzpony 发表于 2010-6-24 15:46

专业市场果然利润丰厚啊,NV都乐不思蜀了~
作者: 66666    时间: 2010-6-24 15:57
intel当然急了,高性能计算这个领域市场潜力巨大,而且利润及其丰厚。
作者: zalii    时间: 2010-6-24 16:14
一堆人還在自我陶醉,連INTEL的意思都沒理解
作者: westlee    时间: 2010-6-24 16:39
提示: 作者被禁止或删除 内容自动屏蔽
作者: 红发IXFXI    时间: 2010-6-24 16:44
这标题明显讽刺intel啊。。。。集成还是一贯的弱。。。。。
作者: yyf    时间: 2010-6-24 16:50
提示: 作者被禁止或删除 内容自动屏蔽
作者: algoking    时间: 2010-6-24 16:53
I7 960 多少钱? GTX280才多少钱?
作者: AMD11    时间: 2010-6-24 16:57
说句肤浅的:单从晶体管数量来看GPU早已经超过CPU N条街了,不过CPU跟GPU的架构完全不一样,所以不能简单的等效。相比之下,X86的CPU要复杂的得多,GPU只是简单的几条指令,GPU在简单指令,如图形渲染等方面的执行效率比较高,再加上晶体管数量上的优势,快14倍不足为奇。# X4 q6 q2 M/ g7 T
统一架构的事,现在说还为时尚早,不过这是一个趋势。
# O% e- F( j3 B( x! X. E" J) a# rIntel的技术核心也是在CPU的架构设计和不断优化的指令集上,NV的优势是在图形处理方面和通用计算,总之各家都有自己的绝活,像“14倍”之类的看看就好。
坏坏男爵 发表于 2010-6-24 13:09

你确定NV的GPU在“通用处理”上相对CPU(不一定是Intel的)有优势?
作者: stcshy_3    时间: 2010-6-24 17:10
提示: 作者被禁止或删除 内容自动屏蔽
作者: hdht    时间: 2010-6-24 17:23
提示: 作者被禁止或删除 内容自动屏蔽
作者: emu10kx    时间: 2010-6-24 17:28
280怎么没卖960的14倍呢?NV亏大了
作者: gzpony    时间: 2010-6-24 17:34
TOP500上一款接一款的TESLA,换了你是intel老板,你能不着急?
hdht 发表于 2010-6-24 17:23



    intel急啊,所以有几个项目都是针对NV的。
但无论是80核,48核CPU,还是拉拉比,都只能在实验室或者拿到演讲会上演示演示,都还不能卖。要商品化不知还有多少年,这些年只能看着HPC市场逐渐被GF100瓜分,这多着急啊。




欢迎光临 POPPUR爱换 (https://we.poppur.com/) Powered by Discuz! X3.4