POPPUR爱换

 找回密码
 注册

QQ登录

只需一步,快速开始

手机号码,快捷登录

搜索
查看: 5199|回复: 24
打印 上一主题 下一主题

关于nv tsmc的工艺,CUDA的前景等

[复制链接]
跳转到指定楼层
1#
发表于 2008-9-1 21:43 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式
转自equn论坛,不代表证实其内容或同意其观点{lol:]
mooncocoon
论坛会员

没有HIGH-K支撑的55或者45nm就像当初刚出现的90nm一样,小于1000pm的栅氧层的漏电抵消了相当大一部分的刻线带来的功耗降
ATI和TSMC基本上应该算是彻底消化了氧化铝,虽说不是自产但起码有点数,氧化铝9的K值做HIGH-K虽然不堪长远但起码用到45nm左右没啥问题。nv这边就没啥HIGH-K经验了,IBM在Hf-Si-O体系上迟迟搞不定镧系收缩以及暗中跟NV撕破脸皮之后NV只得通过TSMC更加保守的使用工艺,这才有了缓慢的55nm

离开课题组之后消息变得闭塞了,所以我不知道55nm的98用了什么新鲜东西,不过对比88U的疯狂,可以认为98GTX+里面应该是什么东西的都没有的相当常规的设计了


我过去跟EJI他们说过,小于1000甚至800pm的栅氧层,大于100pm的nMos-pMos氧化物层厚度差距以及铪的镧系收缩,都可能导致 65nm之后死很多人,结果没想到IBM和NV竟然也不幸中标……虽然IBM现在看来在32nm上以及之后可以脱困,但45nm这一代是否能够突破还未成定数,这对NV来说只意味着一件事——就算能跟IBM复合如初,现在IBM手中的东西对他来说也是远水难解近渴
2#
 楼主| 发表于 2008-9-1 22:51 | 只看该作者
终于发出来了,继续转

那个……目前为止CUDA的月均下载量仍大于30W,纯开放的东西不引起很大反响是相当难得

搞定了MATLAB的NV确实算是在搞科学运算了……如果说一个MATLAB还不够,再加个Materials Studio应该足够了

虽然有点以偏概全+自我出发,但是我认定NV搞游戏同时还搞科学计算是因为如果材料学的计算机模拟研究都能获益,那能够获益的学者在理工学类里面将占极大比重,我所知的很多搞物理的课题组都采购了大量的G92/GT200或者干脆买了4路或者8路的Tesla。占领研究领域的份额如果还不算搞科学运算的话,那连SUN和IBM都是做游戏卡的了……
回复 支持 反对

使用道具 举报

头像被屏蔽
3#
发表于 2008-9-1 23:35 | 只看该作者
提示: 作者被禁止或删除 内容自动屏蔽
回复 支持 反对

使用道具 举报

4#
发表于 2008-9-2 09:25 | 只看该作者
       芯片工艺上关键内容的保密一般是两到三年,鉴于NV和AMD同样使用TSMC的工艺,NV在55nm工艺上的窘态不大可能延续到40nm上面。但是针对材料特性的IC设计NV恐怕不会一时半会儿就赶上AMD,毕竟AMD从02起就开始针对LOW-K进行设计,并且有自己的芯片工厂和领先的技术。芯片厂是相当大的负担,但是他在为设计积累经验方面所作的贡献也是无与伦比的。NV现在只能和TSMC紧密合作充分挖潜。
       想想看,一年时间同样的管线规模从R600到RV730的变化,和AMD的设计功力比NV差了不少。如果一年后NV能在40nm上把GTX280管线规模搞到GF9550的成本定位上才能跟上AMD的步伐。可能吗?


[ 本帖最后由 shu0202 于 2008-9-2 21:39 编辑 ]
回复 支持 反对

使用道具 举报

5#
发表于 2008-9-2 10:47 | 只看该作者
都是TSMC代工,怎么那么大区别呢?
回复 支持 反对

使用道具 举报

6#
发表于 2008-9-2 12:33 | 只看该作者
原帖由 cyberchb 于 2008-9-2 10:47 发表
都是TSMC代工,怎么那么大区别呢?

       专门提供给NV和专门提供给AMD的生产线是不同的。IC工艺设计都是由NV/AMD和TSMC的专门团队协作完成的。双方在工艺和材料上互相保密。当初NV可以畅通无阻的从IBM获取工艺和材料应用技术的时候专门强调了自己的工艺秘密两年之后才能向第三方开放。在NV40之前,ATi在芯片设计的功耗控制上一直占优势,后来还在130nm上引入了LOW-K工艺。NV40算是NV对IBM工艺的一次比较成功的应用。然后到110nm直至80nm在工艺上领先的幅度越来越大,ATi则在芯片架构和工艺设计上越来越力不从心:架构越来越不均衡,庞大的晶体管和复杂的结构中缺陷越来越多,运算能力浪费严重,功耗难以控制。R600直接变成了怪胎。反观G7X,可以说是简洁、高效、漂亮的典范设计。
       NV用90nm搞出来的G80换到65nm仍然是高端的规模,可以说NV直到65nm都是在稳步发展。可是ATi被AMD收购后发生了变数。AMD居然领先半年之久率先采用55nm工艺,在工艺上一下子成了领跑者。虽然GPU和CPU在架构设计上还有显著区别,但是放到工艺层面上并没有本质的区别。AMD把原先用于CPU的工艺设计经验用到GPU上面,一下子就把巨无霸的R600架构搞成了适用于中端的RV670,成本和功耗都得到了很好的控制。到了RV770,只用修修改改的办法就妙手回春,一个被众人嘲笑的架构摇身一变成了致命的杀器,谁能料得到这样的结果?同样的55nm,RV770居然能把管线密度继续提升30%?!堪比工艺换代的效果了。可以这样说:没有先进的工艺设计支持,今天的RV770就是镜花水月。然而AMD使用的就是TSMC现成的工艺,这对NV来说应该没什么秘密可言。然而NV和AMD的GPU架构差异显著,在架构对工艺的利用上NV只能靠自己。可以说工艺利用和工艺设计对NV和AMD来说有扭转乾坤的力量。假设55nm的缩减版GT200管线设计上能达到RV770的密度水平,成本控制和竞争力上会比现在好得多!(假设而已)NV在55nm工艺上遇到了问题,可能涉及到传统的工艺材料已经不能很好支持新工艺设计。
       可以说TSMC 40nm工艺是NV和AMD争取优势的关键。双方在工艺和材料上恐怕不会有什么明显区别,最后就要看谁的工艺设计思想更高明。


[ 本帖最后由 shu0202 于 2008-9-2 21:34 编辑 ]
回复 支持 反对

使用道具 举报

7#
发表于 2008-9-2 15:09 | 只看该作者
ATI在130nm上引入的是low-k ,使用于96XT且仅有两个中间层而已,high-k在那个厚度上完全没有必要

GPU第一次正式使用HIGH-K出现在R580但未公开

AMD没有独立研究过任何介电材料,AMD于02年至03年作为合作参与者短暂参加过mirai计划,后因决定使用SOI而放弃并退出,目前在研项目只有协助IBM开发Ultra low-k,但因为种种原因双方都有些热情缺缺,目前为止AMD没有自己的HIGH-K技术和工艺,02年的时候除了INTEL之外只有大学才研究HIGH-K材料,工艺整合问题02年只有日本人开始有考虑但未开始实体研究。

目前HIGH-K方面只有INTEL实用化且有多套成型工艺,ibm、东芝和意法半导体都在各自的方向上碰壁中,NV和AMD的CPU部分目前没有65至45nm之间的HIGH-K工艺可以使用
回复 支持 反对

使用道具 举报

8#
发表于 2008-9-2 15:29 | 只看该作者
AMD比ATI强大的多

可以预料今后已经难以出现一边倒的情况了
回复 支持 反对

使用道具 举报

9#
发表于 2008-9-2 15:42 | 只看该作者
{biggrin:] {biggrin:] {biggrin:]
总结一下,意思就是NV再次遇到工艺墙,包括55NM和45NM乃至40NM
NV就算能解决也已经落后AMD一年半载
{titter:]
回复 支持 反对

使用道具 举报

10#
发表于 2008-9-2 15:56 | 只看该作者
工艺墙谁都会碰到{lol:]
回复 支持 反对

使用道具 举报

11#
发表于 2008-9-2 18:56 | 只看该作者

回复 9# mooncocoon 的帖子

多谢说明!你比我专业多了。
NV和AMD在对TSMC的工艺利用上现在处于同一水平线,就看谁能用得更好。
回复 支持 反对

使用道具 举报

12#
 楼主| 发表于 2008-9-2 19:08 | 只看该作者
amd的后端比nv的经验应该还是要丰富一些,就看能不能在GPU上成功运用了
另外 La系收缩的概念我还是知道的。不过具体细节就是七窍通了六窍了...
回复 支持 反对

使用道具 举报

13#
发表于 2008-9-2 19:42 | 只看该作者
看了这个帖子,回过头翻2002年-2003年的文档,真的是温故而知新啊。-----事实上那时候也是一知半解,现在稍许好了那么一点点.

不过有这些文档里可以看出,high-K并不是2007年才作为各家研究的重头戏的。

2002年左右的low-K, 曝光技术,high-K,SOI,strained silicon......现在正是它们发挥的时代。

除了这个,还有封装技术,比如intel的BBUI。

nvidia只能说是那个时代fabless的胜利者。但是缺乏对半导体工艺或者封装工艺的具体前期研究,现在遇到困难某些角度来说是必然的。
回复 支持 反对

使用道具 举报

14#
 楼主| 发表于 2008-9-2 19:51 | 只看该作者
原帖由 spinup 于 2008-9-2 19:42 发表
看了这个帖子,回过头翻2002年-2003年的文档,真的是温故而知新啊。-----事实上那时候也是一知半解,现在稍许好了那么一点点.

不过有这些文档里可以看出,high-K并不是2007年才作为各家研究的重头戏的。

2002年 ...

嗯 ISSCC是非常值得关注的
不过nv不研究半导体工艺也是不可能的。那样以gf256以后gpu的复杂度,芯片根本就造不出来的。
当然可能在材料物理的细节方面要差一点。
回复 支持 反对

使用道具 举报

15#
发表于 2008-9-2 20:05 | 只看该作者
原帖由 boris_lee 于 2008-9-2 19:51 发表

嗯 ISSCC是非常值得关注的
不过nv不研究半导体工艺也是不可能的。那样以gf256以后gpu的复杂度,芯片根本就造不出来的。
当然可能在材料物理的细节方面要差一点。


问题是它必须与搞基础研究的企业密切合作。
比如说nvidia前不久的封装问题,他觉得很冤,因为“大家都用相同的材料相同的工艺制造了百亿芯片”-----问题是所谓“相同的材料”却可能有1/1000的区别,而就是这千分之一的区别,却可能有专利和协议的保护,即使是同出于日月光,它也不能把用于这家的材料和工艺完全一致地用在另一家的产品上。
回复 支持 反对

使用道具 举报

16#
 楼主| 发表于 2008-9-2 21:21 | 只看该作者
原帖由 spinup 于 2008-9-2 20:05 发表


问题是它必须与搞基础研究的企业密切合作。
比如说nvidia前不久的封装问题,他觉得很冤,因为“大家都用相同的材料相同的工艺制造了百亿芯片”-----问题是所谓“相同的材料”却可能有1/1000的区别,而就是这千分 ...

nv这个封装问题属于工程实际上的马有失蹄,并不是靠搞基础研究很nb就可以解决的。
至少根据nv的官方说法,此问题并不容易在实验室重现而找到原因
事实上同样使用g8xm的tp t61并没有报告问题,总不是联想不厚道吧
回复 支持 反对

使用道具 举报

17#
发表于 2008-9-2 21:31 | 只看该作者
原帖由 boris_lee 于 2008-9-2 21:21 发表

nv这个封装问题属于工程实际上的马有失蹄,并不是靠搞基础研究很nb就可以解决的。
至少根据nv的官方说法,此问题并不容易在实验室重现而找到原因
事实上同样使用g8xm的tp t61并没有报告问题,总不是联想不厚道吧


确实在工程上有些随机出现的问题很难事先就观察到,但是这摆脱不了封装质量检测欠缺严谨的嫌疑,毕竟这些高精尖东西对质量检测非常敏感。
回复 支持 反对

使用道具 举报

18#
 楼主| 发表于 2008-9-3 10:12 | 只看该作者
原帖由 我奏是马甲 于 2008-9-3 02:08 发表


是啊。。当时我推断出这个结论的时候,倒是很多人说法是反方向的。呵呵。现在可以挖了……

http://we.pcinlife.com/thread-992614-1-6.html

推断不是这么来的
科学是方法论{titter:]
La系收缩是大家一起撞的好不好,ibm干爹都没跑掉

[ 本帖最后由 boris_lee 于 2008-9-3 10:13 编辑 ]
回复 支持 反对

使用道具 举报

19#
发表于 2008-9-3 11:45 | 只看该作者
nv需要顶住:o :o
回复 支持 反对

使用道具 举报

20#
发表于 2008-9-3 12:04 | 只看该作者
CUDA 暂时也还不乐观,我和HPC 应用的一些客户一起在做Hybrid 计算平台的移植,一般来说,GPGPU 对于SP 来说是非常好的平台,即使DP,也有人用FireGL 做到了单GPU 200GFlops 峰值的矩阵运算,CUDA的可编程性要比CAL 好很多,但是优化和吞吐量一直是个瓶颈问题,对于某些用户,他们这么计算:
8核的XEON 平台,价格在4000美金左右,而FireGL的平台价格约2500美金,性能后者峰值是前者的两倍,可是可编程性差,优化不理想,对于某些计算不适用,因此CUDA 的推广,需要让用户能够看到优势,任重道远啊。
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 注册

本版积分规则

广告投放或合作|网站地图|处罚通告|

GMT+8, 2025-2-1 01:39

Powered by Discuz! X3.4

© 2001-2017 POPPUR.

快速回复 返回顶部 返回列表