POPPUR爱换

标题: 流计算和通用计算的差别。 [打印本页]

作者: tomsmith123    时间: 2009-8-16 11:36
标题: 流计算和通用计算的差别。
GPGPU 其实是一个过时的技术,这个技术是建立在GPU 可编程管线的基础上,借助于OpenGL 或者其他编程接口编程的一种技术。
流计算是一类计算,通用处理器也可以做,但是专用处理器会做得更好,这和DSP 比较接近。
图形学计算中,其实问题比较集中,2D 3D 的图形计算,都有其算法的特点,可以参考GPU Gems 系列,这个系列与其说是写GPU 的结构,不如说是写图形算法,通过图形算法来解释nVidia 的GPU 结构特点,Gems 1,2,3 是对GPU 架构有兴趣的人,必须收藏的三本书。不仅仅是nVidia 的GPU,其他厂商的GPU 设计,包括流处理器设计,也是基本遵循算法的要求的。
通用计算,从某种意义上说,就是十八般武艺样样都知道,样样都不通的,习惯了用MSVC 编程的人,往往意识不到他的代码对于CPU 的理论峰值,只有很小一部分的比重,Intel 投入了极大的精力优化ICC,但是仍然无法改变通用处理器固有的问题,未来的Larrabee 仍然背负着X86 的负担而不能彻底解放。
现在的GPU CPU 走到了一个可以交叉的路口,GPU 投入了比较大的精力做通用计算,CPU 则通过many core 来挑战GPU 的市场,未来前景如何,很难预测。
作者: 会飞的鱼儿    时间: 2009-8-16 14:12
GPU CPU 走到了一个可以交叉的路口 的确很难预测 未来是不是一体的         很难说  !
作者: ic.expert    时间: 2009-8-16 15:06
一落叶而知天下秋,其实未来10年内的格局已经见分晓了~

:〉
作者: tomsmith123    时间: 2009-8-16 15:49
3# ic.expert
算法的负载形态差异越来越大,专用处理器成本太高,GPU CPU 分别从两个极端向中间逼近,看谁先到平衡点吧。
作者: cellwing    时间: 2009-8-26 12:51
提示: 作者被禁止或删除 内容自动屏蔽
作者: singleman    时间: 2009-9-2 23:39
提示: 作者被禁止或删除 内容自动屏蔽
作者: kevin_shuai    时间: 2009-9-6 15:04
不懂,帮顶
作者: Sirlion    时间: 2009-9-6 16:10
怕是淘汰cpu的不是nv而是intel
作者: sharko    时间: 2009-9-6 17:36
什么技术都可以说是过时的技术,我觉得这两家完全没必要相互掐,通用计算应当向广度方向发展,而专用计算应当向深度方向发展,对于用户来说,可以自由选择通用计算与专业计算的搭配方式,甚至可以自己组建专业方面的大型计算机
作者: wildcat    时间: 2009-10-16 03:00
怕是淘汰cpu的不是nv而是intel
Sirlion 发表于 2009-9-6 16:10

这话有道理。
作者: Prescott    时间: 2009-10-16 09:49
3# ic.expert  
算法的负载形态差异越来越大,专用处理器成本太高,GPU CPU 分别从两个极端向中间逼近,看谁先到平衡点吧。
tomsmith123 发表于 2009-8-16 15:49

问题就在负载差异形态越来越大,就算是对于某一种特定负载的专用处理器比通用处理器效率更高,但是你总不能在一个CPU中集成1000个专用处理器分别处理1000种不同的负载。只要是定位通用处理,则必然还是胖CPU总体效率(Perf/watt,perf/diesize)更高。

但是当某类特定负载在整体负载中所占比例越来越高的时候,在CPU中单独设计一部分电路加速具有共性的部分显然是一个不错的选择。图形处理现在明显是一个候选。
作者: Edison    时间: 2009-10-16 15:17
socket 形式的 CPU 很难增加带宽,而做成 Larrabee 那样的话,其实也就和 GPU 没啥大的差别了。
作者: qq154546655    时间: 2009-10-17 07:12
你真是高人啊
作者: Prescott    时间: 2009-10-17 13:11
socket 形式的 CPU 很难增加带宽,而做成 Larrabee 那样的话,其实也就和 GPU 没啥大的差别了。
Edison 发表于 2009-10-16 15:17


不要光比带宽,也要比比延时啊,GDDR那种延时,也只能用于流式数据的处理
作者: sunnyskill    时间: 2009-11-12 15:18
要变革。。
作者: zjcr    时间: 2009-11-23 17:38
量子计算机一出就ms你们全部YY。。。
作者: 最强的青蛙    时间: 2009-12-17 14:17
gpu应该可以变的.....
作者: 含笑半步跌_YSM    时间: 2010-1-1 11:51
量子计算机一出就ms你们全部YY。。。
zjcr 发表于 2009-11-23 17:38



    这个有生之年能看到吗?
作者: lptt3    时间: 2010-1-1 17:06
本帖最后由 lptt3 于 2010-1-1 17:10 编辑

都是纯理论。实际编程的习惯与困难造成cpu不可绝对替代。只可能从某些方面加以利用gpu。有没有人想过cpu为什么会发展成这个样子?是工业设计推动的,还是软件设计推动的?x86为什么生命力旺盛?安腾为什么会失败?

大型通用程序更多考虑的是逻辑完整性,结构稳定性,而不是并行性。为什么不是并行性?因为通用程序提高并行性所要付出的劳动代价和收获不成比例。而且要冒着破坏逻辑完整性和结构稳定性这样“巨大”的风险。人都是懒的,只是在有限范围内勤奋而已,想想cell。。。所以cpu只可有限替代。
作者: forest6    时间: 2010-1-4 13:54
技术还是应该以市场需求为导向
作者: seaga    时间: 2010-1-14 19:10
嘿嘿,不懂的路过帮顶
作者: 654123    时间: 2010-1-14 19:44
等着计算机量子化~~
作者: daiyu2001    时间: 2010-1-25 15:26
量子计算机的概念是什么啊,有没高人简单说说?
作者: kike-2001    时间: 2010-1-31 14:02
提示: 作者被禁止或删除 内容自动屏蔽
作者: denev2004    时间: 2010-2-4 17:16
问题就在负载差异形态越来越大,就算是对于某一种特定负载的专用处理器比通用处理器效率更高,但是你总不 ...
Prescott 发表于 2009-10-16 09:49

这个同意。现在应用的倾向性还是有的

不过不知道云计算会不会改变这个倾向性?
作者: auphauecs    时间: 2010-5-26 15:53
怎么把量子计算机的问题都抛出来了?

个人计算机要量子化的话不知道技术要多少年才能成熟
作者: rickerlian    时间: 2011-2-23 23:37
算法有自己的特性,巨量简单并行运算需要gpu来完成,因为gpu的诞生就是为了处理这类问题;同样,复杂逻辑串行运算需要cpu来完成。把gpu内的运算单元做到单个cpu的复杂度,gpu就能代替cpu,把cpu扩充到gpu的规模,cpu就可以代替gpu,但就目前的半导体工艺而言,不现实,但未来肯定会出现这种通吃的运算设备。
作者: 啦啦123    时间: 2011-2-27 01:49
进来学习下




欢迎光临 POPPUR爱换 (https://we.poppur.com/) Powered by Discuz! X3.4