POPPUR爱换

 找回密码
 注册

QQ登录

只需一步,快速开始

手机号码,快捷登录

搜索
查看: 3696|回复: 16
打印 上一主题 下一主题

深度解析NVIDIA的三极化战略:Denver和Tegra没关系?

[复制链接]
跳转到指定楼层
1#
发表于 2011-9-3 19:05 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式
NVIDIA首个通用CPU开发计划"Project Denver"不仅对于CPU+GPU混合加速计算是一个里程碑,同时对于GPU计算(GPU Computing)能力的突破也是不可或缺的存在。

NVIDIA内部人士透露,其实Project Denver在距今3年半前已经开始初步谋划,初始目的是为了提高GPU的并行计算性能,以及更好对GPU内部指令进行排列管理,需要更强大的处理器,因此开始初步研究CPU的开发。

不过途中突然生变:微软下一代操作系统Windows 8宣布支持ARM架构处理器,NVIDIA也随之对计划作出改变。本文将从NVIDIA的GPU计算部分开始,对该公司CPU开发部门的情况进行整理。


CPU性能的继续提高遇到瓶颈

2011年7月下旬在东京六本木举行的GTC Workshop Japan 2011大会上,NVIDIA日本分公司的馬路徹做了名为GPU架构和GPU计算入门的演讲,其中说明了GPU计算能力的现状。

他在演讲中提到:受益于18个月晶体管集成度提高一倍的摩尔定律,CPU的性能在2000年以前顺利提升。2000年之前,平均每年晶体管的速度随着工艺进步提高约19%,Pipeline-F/F(即Flip-Flop,触发器,具有记忆功能短暂保存输入信号的逻辑回路)之间的逻辑门数目每年削减约9%,微架构带来的性能改良每年约18%,总体计算每年CPU提高的性能约(1.19*1.09*1.18-1)*100%=52%

但是在2000年以后,尤其CPU开始受益于多核化的2005年以后,摩尔定律逐渐遇到瓶颈,而和多核处理器并行计算性能有关的阿姆达尔定律(Amdahl's Law)逐渐受到关注。


摩尔定律其实不是预测CPU性能提高的规律,而是预测半导体技术提高幅度的规律,主要是晶体管的集成度

2000年前,CPU性能基本按照摩尔定律所预测的幅度逐年提高性能
阿姆达尔定律的准确内容是:固定负载(计算总量不变时),计算机的加速比可用(Ws+Wp)/(Ws+Wp/p)来表示,其中Ws,Wp分别表示问题规模的串行分量(问题中不能并行化的部分)和并行分量,p表示处理器数量。对该式取极限即当处理器数量接近无穷大时,结果为1+Ws/Wp,也就是无论我们如何增大处理器数目,加速比无法高于Ws/Wp(据维基百科)。


阿姆达尔定律主要描述的是,单纯靠CPU核心数提高改进执行效率是有界限的

根据这一点,馬路徹指出,如果软件应用等不对多核处理作出优化,CPU实际性能提高的幅度将越来越慢,“8核CPU实际性能只有单核的不到4倍,2000年以后CPU性能提升的幅度每年减缓19%”。


2000年后CPU堆积晶体管的方式转为提高核心数量

CPU性能提高的速度在逐年放缓

当然,CPU厂商已经预计到阿姆达尔定律所预见的情况出现,将CPU改造成适合并行计算的架构和加入对应的指令集。Intel的MMX,SSD,AVX等强化SIMD计算功能的指令集就是如此;同时Intel还推出了一系列对应多核CPU的开发套件,均为了提高并行计算性能。

不过,这种手段也有界限,最终结果就是,HPC等高性能计算业界纷纷转向原本就拥有适合提高并行计算性能架构的GPU。


虽然CPU为提高并行计算能力也在逐渐改良微架构,但终究也有界限

馬路徹表示,“由于GPU本身的架构,半导体集成度的增加主要提高的是并行计算性能。即使是现在每年性能提高幅度也有74%左右。”此外,GPU和CPU并行处理性能差也将越拉越大,以浮点运算计,2001年的显示核心浮点性能是当时CPU的30倍,而这一差距在今日已经拉大到1000倍,今后也将继续扩大下去。


同样依照摩尔定律发展,GPU通用计算能力比CPU提高幅度要大得多

GPU计算的现状

自从NVIDIA支持DX10的统一渲染架构G80核心发布以来,半导体工艺的进步使得GPU内置的核心(流处理器)数量越来越多,GPU基础架构改良速度对比CPU也越来越快。GPU的通用计算能力在这几年来得到很大提高。


NVIDIA旗下GPU的核心数量变化历史

因为GPU起初是为图形处理设计,对指令集的依存度很低,即使再多线程数量也仍然能保持并行处理性能维持在高水平不变。举例来说,对于3D角色的反射光计算,每个多边形反射光计算中法线处理互不相干,因此多边形数量再多也不会造成瓶颈,GPU的运算能力可以充分发挥。

CPU和GPU的并行处理示意图

GPU实际并行计算示例:复杂多边形的反射光处理运算

因此,科学运算中最适合利用GPU强大的并行计算能力,馬路徹表示,NVIDIA近年来所力推的Tesla加速卡就是例子,同时取得了很多成果。


GPU理论浮点运算性能取得了飞跃

GPU并行计算适合多种要求高性能运算的应用NVIDIA必然开发自家CPU

不过GPU的发展也会受到阿姆达尔定律的影响,当GPU集成的核心数量越来越多时也一定会遇到瓶颈。

解决瓶颈的方法可以是在GPU中加入线程控制机能,用来安排指令优先级和打包指令使其提高执行效率。

NVIDIA在G80架构中首次在芯片和流处理器(SM)级别都加入了线程管理机能"Thread Scheduler",此后随着图形核心的发展,在Fermi架构上Thread Scheduler进化为"Gigathread Engine",使得并行运算性能进一步得到大幅提高。


NVIDIA G80核心流水线示意图

NVIDIA GT100(GTX280)核心架构图

并行计算架构示意图

Fermi核心架构图,Thread Scheduler进化为GigaThread Engine

但是,在CUDA Core数量最大已经达到512个的况下,如果再增加势必会给线程管理模块部分带来更高负荷,甚至有发热过高烧毁的危险。因此,为了使GPU的并行计算性能维持优势,需要搭载更加强力的线程控制及管理模块,Project Denver正是为此诞生。



GigaThread Engine介绍,搭载2基硬件级别线程管理DMA引擎

NVIDIA负责产品市场部门的执行副总裁Ujesh Desai确认了Project Denver从三年前就已经开始开发,目标是实现CPU和GPU的统合。

受微软宣布下代操作系统Windows 8将正式支持ARM架构的影响,NVIDIA原本的ARM核心CPU业务范围也将扩大。在3月召开的投资者会议Financial Analyst Day 2011上,NVIDIA总裁兼CEO黄仁勋宣布,Denver的核心将使用未来的Tegra处理器。


NVIDIA的目标是成为"Computing Company",要实现这一目标CPU业务也是重要的收益来源

2011年5月曝光的Project Denver核心示意图

虽然黄仁勋的说法摆在那里,不过看起来Project Denver和Tegra的关系不是那么简单:NVIDIA移动业务总经理Micheal Rayfield称:“Project Denver和Tegra毫无关系”。他说:“用于移动业务的Tegra最注重目标是省电性能,将不会冒进,沿着ARM提供的Roadmap进行SoC开发。”“Kal-El将是Cortex-A9架构四核处理器,Wayne也自然会沿用下一架构。”表明了Wayne将使用Cortex-A15架构。

同时Desai也从另外一方面验证了上述表态:“Project Denver目标是成为面向HPC(高性能计算)的强力CPU核心,不会像Tegra一样考虑省电。”
Project Denver究竟目的在哪?

那么,Project Denver开发的CPU核心究竟是什么样的东西呢?可从2010年11月在美国路易斯安那州新奥尔良市召开的HPC相关技术大会"SC10"上窥见一斑,同时也可从NVIDIA在GTC Workshop Japan 2011上公开的Roadmap中"Echelon"高性能HPC向平台推测出部分内容。


Echelon计划成员实力强劲,包括Cray、美光、洛克希德马丁等著名公司,以及加州大学、斯坦福大学、德州大学奥斯汀分校、佐治亚理工学院、田纳西大学、宾夕法尼亚大学、犹他大学、橡树岭国家实验室等著名科研院校

Echelon计划的来头颇大,主导机关是美国国防部下属的DARPA(国防尖端技术研究开发计划局),目标是在2018年实现ExaScale级别计算能力的超级计算机(UHPC),Echelon的开发受到这一项目的经费资助。DARPA资助经费的规定为,在2014年前完成Phase1阶段的开发,即设计完成硬件部分,同时要报送DARPA审查。

NVIDIA首席科学家Bill Dally在SC10大会上的演讲内容中透露,Echelon为128个SM模块和Project Denver的基础——名为Latency Processor的8个CPU核心所组成,其中每个SM模块含有8个CUDA Core和独立的L0 Cache。据此计算,Echelon芯片整体含有8*128=1024个CUDA Core。


NVIDIA首席科学家Bill Dally

各个SM模块独立命名为"NoC"(Network on Chip)通过内部界面,经由L2 Cache和内存控制器与其他SM相互连接。L2 Cache和CUDA Core数量一样分1024块,单个Echelon芯片中,NoC通过MC与一同封装的DRAM Cube连接带宽可达1.4TB/s。

Echelon芯片的峰值计算性能(以双精度浮点运算记)可达20T FLOPS。NVIDIA设想的每个Echelon机柜搭载32个模块,每个模块封装4个Echelon芯片,这样单个机柜的运算能力可达2.56P FLOPS。Echelon的Phase1(第一阶段)设计就是如此,NVIDIA将在此基础上第二阶段主要考虑继续提高运算性能和降低芯片所消耗的电力。


Echelon模块图解

Echelon由128个SM模块和8个Latency Processor组成,后者就是Denver的核心

内存和每个Echelon的MCM(Multi Chip Module)Node在同一封装内相连,带宽可达1.4TB/s

每个Echelon机柜由128个Node(即单Echelon芯片)组合而成,实现2.56P FLOPS的计算能力,功率38千瓦

400个机柜即可实现Exa级别的计算,功率约150万瓦

为了配合UHPC一期开发阶段制造Echelon工程样品的需要,2013年前需要完成Latency Processor即Project Denver的CPU核心开发工作。

这和NVIDIA在GTC Workshop Japan 2011上公开的最新平台路线图相符合,Project Denver将和NV的下下代GPU核心"Maxwell"在同一时段登场。公布的幻灯片将Denver和Maxwell划在了同一个框内,或许Echelon就是Maxwell和Denver核心的组合体?


GTC Workshop Japan 2011上公开的各平台框架图

不过和Echelon专注于通用计算不同的是,作为需要兼顾到原本3D应用的GeForce系列芯片,Maxwell不太可能采用像前者一样激进的GPGPU专用架构。根据前面Echelon拥有1024个CUDA Cores实现20T FLOPS计算能力推算,如果Maxwell和Fermi成品旗舰显卡的TDP相当,在250W左右的话,双精度浮点性能大约为3.5-4T FLOPS为Tesla的15倍,Fermi的7.5倍左右,和NV路线图展示的比例相近。但如果两者架构相同,Maxwell的CUDA核心数可能会降到200左右,现在NVIDIA旗舰显卡GTX 580则有512个。由此看来除非NV桌面显卡架构也跟着大变,否则Maxwell和Echelon不太可能采用同样架构,两者的GPU性能不是为同一级别应用设计。

此外,黄仁勋也曾经发表过关于Project Denver性能的评论,他在GPU Technology Conference 2010会议上曾经表示,将GPU和现有的ARM架构CPU(Cortex-A9)整合后,整数运算性能将是原有的3-4倍。如果这里整合产物指的是Project Denver,那么它的性能将是下代ARM Cortex A-15的2倍以上。如果此目标真能实现,那么NVIDIA将在ARM阵营内争夺主导权的战斗中占据上风,Project Denver也将圆满完成目标。


ARM公开的Cortex-A15对比同频Cortex-A9的性能对比图,如果Project Denver是Cortex-A9性能的3-4倍,那么将是Cortex-A15性能的2倍以上

Desai曾经称NVIDIA的CPU核心开发部分在同时推进多个计划,在笔者看来,Project Denver或许还有另外一个出路——进驻基于Windows 8的笔记本电脑用SoC(System on a Chip)市场。

回顾一下前面提到的内容,Echelon、Maxwell和Denver核心的功耗都比较高,进驻笔记本电脑SoC芯片市场的可能性很小。而目前还没有Tegra和Project Denver合并的计划,Tegra处理器在2011年2月MWC 2011大会上公开的路线图也多是针对智能手机和平板电脑市场,并且Tegra的性能目前看来也只适合低端笔记本。 此外,2013年Intel和AMD预计都将力推超薄笔记本电脑所用CPU SoC化,特别是Intel从现在就开始力推Ultrabook概念。难得Windows 8开始支持ARM架构处理器,NVIDIA没理由不参与这一世代的笔记本电脑市场竞争。

这样看来,Tegra可能会从Project Denver的第二代CPU核心开始与后者整合。目前我们得知的消息是,四核Kal-El的下一代Tegra "Wayne"和下下代"Logan"均将使用Cortex-A15架构,而2014年的"Stark"就是Tegra和Denver的最好整合时期。至于Stark以后NVIDIA将怎样活用Project Denver的成果继续发展Tegra品牌产品,我们大可拭目以待。


总结:Project Denver是NVIDIA在CPU+GPU混合计算时代掌握市场主导权的最重要计划,此后NV旗下产品将主要分为三大块:着重于GPGPU的高性能计算处理器,3D游戏用GPU和移动设备包括笔记本电脑、平板电脑和智能手机的Tegra三足鼎立,对比最早单GPU和近年来Tegra+GPU的战略做了重大变革。



转自驱动之家
2#
发表于 2011-9-3 19:52 | 只看该作者
ARM版本的APU么 =。=
回复 支持 反对

使用道具 举报

westlee 该用户已被删除
3#
发表于 2011-9-3 20:25 | 只看该作者
提示: 作者被禁止或删除 内容自动屏蔽
回复 支持 反对

使用道具 举报

4#
发表于 2011-9-3 22:03 | 只看该作者
本帖最后由 mooncocoon 于 2011-9-3 22:06 编辑

相比于吧显卡封装到CPU旁边做黑箱的“独显核心”,我觉得这个才更像融合……

不过说实话,提高丹佛的层级是相当冒险的,甚至可以说相当相当相当冒险……NVIDIA最近雷搞得多了点,不知道会不会出什么岔子
回复 支持 反对

使用道具 举报

5#
发表于 2011-9-3 22:11 | 只看该作者
mooncocoon 发表于 2011-9-3 22:03
相比于吧显卡封装到CPU旁边做黑箱的“独显核心”,我觉得这个才更像融合……

不过说实话,提高丹佛的层级 ...

老黄在显卡大混战时期,雷也没少搞
成功还是看运势的
回复 支持 反对

使用道具 举报

6#
发表于 2011-9-3 22:17 | 只看该作者
本帖最后由 xboxzx 于 2011-9-3 22:18 编辑
coollab 发表于 2011-9-3 22:11
老黄在显卡大混战时期,雷也没少搞
成功还是看运势的


老黄就算出了一些雷,照样还是把对手搞垮了,看这计划老黄明显野心大大的
回复 支持 反对

使用道具 举报

7#
发表于 2011-9-3 22:44 | 只看该作者
不怕雷多 就怕马甲少
回复 支持 反对

使用道具 举报

8#
发表于 2011-9-3 23:17 | 只看该作者
这文章太能YY了,Denver从根本来说还是一个强化并行计算的GPU,只不过相比现在的费米更像CPU而已,就像E大之前所说到那时你很难说这到底是更像CPU的GPU还是更像GPU的CPU。

tegra系列和Denver所面对的能耗级别差几百倍,构架要能简单移植的话intel早就干翻ARM了
回复 支持 反对

使用道具 举报

9#
发表于 2011-9-3 23:32 | 只看该作者
Denver就是ARM64,这不是早有官方发布过了么,楼主没有好好收集资料啊。只有服务器才用得到64bit CPU,这个不说白了你也懂的啦。

NV早就想做CPU了,只是碍于x86指令集的专利做不成,现在ARM普及了再借这个东风

现在Tegra/Mobile方面无论从营收还是发展策略来说都是NV的第三条腿了
回复 支持 反对

使用道具 举报

10#
发表于 2011-9-4 02:38 | 只看该作者
fengpc说的对. Denver就是ARM CPU, 只不过是NV自己设计, 而不是找ARM买IP. 就是说, Denver完全兼容ARM64的指令集, 但是处理器内部设计和ARM的完全不一样, 流水线, 运算单元等等都是NV自己设计. 现在大部分公司包括目前的tegra和apple A4/A5都是找ARM买现成的CPU设计(IP),然后做为一个黑盒子直接放到整个SoC的设计中去.这样做的好处是难度低, 研发时间短,结果就是现在市面上的各家公司的基于ARM的SoC基本上除了频率之外其他都没什么差别.

Marvell(博通的死对头公司, 不知道中文翻译成什么, 不要看成maxwell了)的SoC里面的ARM好象是自己设计的, 不是买IP, 不过没什么人用他的SoC.
回复 支持 反对

使用道具 举报

11#
发表于 2011-9-4 06:20 | 只看该作者
本帖最后由 66666 于 2011-9-4 06:23 编辑
darkstorm 发表于 2011-9-3 23:26
Denvor重点应该是64bit ARM CPU。只是2013-2014不会融合到那个程度。


应该说只是一颗支持ARM指令的串行核心而已,本质还是服务于GPU这种超高并行线程计算。CPU和GPU真的能完美融合到一起么?我个人觉得以人类目前的硅集成电路技术根本是妄想

关于tegra计划之前几篇文章也说的很清楚,tegra还是以ARM现成核心外加NV并行处理单元为主,会加入部分CUDA技术但核心部分肯定是专门为毫瓦级别应用专门设计的,跟Denvor完全不是一个概念
回复 支持 反对

使用道具 举报

12#
发表于 2011-9-5 16:26 | 只看该作者
marvell中文名叫“美满”
回复 支持 反对

使用道具 举报

13#
发表于 2011-9-5 17:10 | 只看该作者
集成电路的进化

从集成晶体管到集成晶体管集群,也就是集成功能的进化


也就是意味着,不久的将来,很可能一个电脑的所有功能都集成到一块芯片里面, ,

现在声像已经集成,现在的显卡都带hdmi输出。。自身集成了声卡

cpu也集成了显卡,,,,apu,出现了。。。


回复 支持 反对

使用道具 举报

14#
发表于 2011-9-5 19:08 | 只看该作者
solidusmic 发表于 2011-9-5 17:10
集成电路的进化

从集成晶体管到集成晶体管集群,也就是集成功能的进化

不用了,以后就一个显示器,其他的都在云端
回复 支持 反对

使用道具 举报

15#
发表于 2011-9-5 19:15 | 只看该作者
Denver 和 Tegra 其实有一定的关系,假如 NVIDIA 希望 Denver 能入侵一些对移动性有较强要求或者应用相对简单的主流 PC 份额,Tegra 或者 ARM 的份额就必须做得足够大,这样才有机会增加大量的 ARM 应用,如此一来 Denver 和 Tegra 就会形成较好的互补。
回复 支持 反对

使用道具 举报

16#
发表于 2011-9-5 19:39 | 只看该作者
不得不佩服NVIDIA的营销和风扇.产品推出时机和噱头也非常好.
回复 支持 反对

使用道具 举报

17#
发表于 2012-5-2 16:22 | 只看该作者
这个可以挖一下
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 注册

本版积分规则

广告投放或合作|网站地图|处罚通告|

GMT+8, 2024-11-23 18:01

Powered by Discuz! X3.4

© 2001-2017 POPPUR.

快速回复 返回顶部 返回列表