POPPUR爱换

 找回密码
 注册

QQ登录

只需一步,快速开始

手机号码,快捷登录

搜索
12
返回列表 发新帖
楼主: asdfjkl
打印 上一主题 下一主题

看到某人写的天河2的文章,实在为其技术基础捏把汗。。。

[复制链接]
21#
 楼主| 发表于 2013-6-18 23:54 | 只看该作者
本帖最后由 asdfjkl 于 2013-6-18 23:55 编辑
junychen 发表于 2013-6-18 22:13
很不幸 Intel 没有16nm计划 基本是楼主自己意淫的。再说了 你光看理论性能干嘛?Intel的加速卡比 NV的加速卡 ...

算了吧,你说的这些结果完全没有数据支撑,根本就是你脑补的~~~  相反的,我为什么这么说是有成绩的。
1)[size=16.363636016845703px]Intel的加速卡比 NV的加速卡 效率更高。反而不吃亏。
[size=16.363636016845703px]2)[size=16.363636016845703px]而且论效率 绝对是Intel 和 AMD 的效率高.
[size=16.363636016845703px]

还有你不要拿CPU的效率和加速卡比,要比就是Intel的Xeon Phi和AMD的FireStream W9000和K20X比。
比单卡的DGEMM效率,或者互联以后的HPC的实际Linpack成绩/理论Linpack峰值,都行!想看看单位功耗的DGEMM成绩和Linpack成绩都OK!
看看谁的效率高!


这套天河2的Linpack效率大概61%,基本上是上一代Fermi Tesla计算卡的成绩。。。。


回复 支持 反对

使用道具 举报

头像被屏蔽
22#
发表于 2013-6-18 23:57 | 只看该作者
提示: 作者被禁止或删除 内容自动屏蔽
回复 支持 反对

使用道具 举报

23#
发表于 2013-6-24 14:22 | 只看该作者
拿linpack这种代码来比当然是GPU占上风了。

之所以强调异构,原因之一(但不是全部)是CPU(多核,众核)与GPU适合不同的负载。比如CPU能够独立分支甚至分支预测,自动管理缓存,内存带宽和延迟都敏感,而GPU是SPM手动管理,依靠谓词寄存器来回切换低效处理分支,延迟不敏感而带宽极度敏感,光拿一种类型的代码来比,肯定是有漏洞的
回复 支持 反对

使用道具 举报

24#
发表于 2013-6-24 14:36 | 只看该作者
Nv-fans 发表于 2013-6-18 23:57
Tesla只能在AMD Intel底下跑,Nvidia的软肋就是没CPU,结果不自量力还想当老大
最後就是连个边都没了

AMD有x86 CPU,不想当老大又如何?下场如何大家都看到了
有还不如没有,一个季度亏损好几亿,哈哈哈哈
回复 支持 反对

使用道具 举报

25#
发表于 2013-6-25 23:18 | 只看该作者
asdfjkl 发表于 2013-6-18 23:54
算了吧,你说的这些结果完全没有数据支撑,根本就是你脑补的~~~  相反的,我为什么这么说是有成绩的。
1 ...

61%的效率值哪里脑补的?
回复 支持 反对

使用道具 举报

26#
 楼主| 发表于 2013-6-25 23:53 | 只看该作者
xiaxin222a 发表于 2013-6-25 23:18
61%的效率值哪里脑补的?

Linpack实际峰值/Linpack理论峰值,自个算去~~~
当年,一班子人也是这么评价由Tesla C2050组成的天河1A的。
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 注册

本版积分规则

广告投放或合作|网站地图|处罚通告|

GMT+8, 2025-12-29 02:37

Powered by Discuz! X3.4

© 2001-2017 POPPUR.

快速回复 返回顶部 返回列表