POPPUR爱换

 找回密码
 注册

QQ登录

只需一步,快速开始

手机号码,快捷登录

搜索
楼主: yangyong353
打印 上一主题 下一主题

神啊,你让AMD怎么活

 关闭 [复制链接]
21#
发表于 2008-9-2 14:14 | 只看该作者
原帖由 我奏是马甲 于 2008-9-2 14:12 发表


790GX默认频率都不知道就出来喊了。我寒。还能再无知点么?{mellow:] {mellow:]  

700MHZ说的是780G,我汗{mellow:] {mellow:]
回复 支持 反对

使用道具 举报

22#
发表于 2008-9-2 14:17 | 只看该作者
299 4600分 3650
回复 支持 反对

使用道具 举报

23#
发表于 2008-9-2 14:18 | 只看该作者
原帖由 我奏是马甲 于 2008-9-2 14:15 发表


人家贴图的目的显然是790GX。。780G都什么年代的东西了。呵呵。。。{biggrin:] {biggrin:]

790GX出得还比MCP7A早呢。凭什么连现货都还没有的MCP7A跑去对比别人上一代产品。哈哈哈{titter:] {titter:] {titt ...

人家说的是780G,你自己一厢情愿的认为说的是790GX还用来取笑别人,我真的被你雷倒了
AMD平台现在主流的是780G可不是什么790GX,还有MCP7A是INTEL平台的
回复 支持 反对

使用道具 举报

24#
发表于 2008-9-2 14:19 | 只看该作者
原帖由 我奏是马甲 于 2008-9-2 14:14 发表


E3000+的790GX就这样被你无视了。其实就算790GX打不过,AMD多焊一颗显存在背面,做成32BIT,性能再次提高一大截。。你没发现7XX系列主板显存都是预留位置的吗?呵呵

嘴巴上说说没有用的,实际做出来再说
回复 支持 反对

使用道具 举报

25#
发表于 2008-9-2 14:22 | 只看该作者
原帖由 粉蒸排骨 于 2008-9-2 14:19 发表

嘴巴上说说没有用的,实际做出来再说



MCP7A这就算是出了?{mellow:]
回复 支持 反对

使用道具 举报

26#
发表于 2008-9-2 14:25 | 只看该作者
原帖由 ANTI~TRUST 于 2008-9-2 14:22 发表



MCP7A这就算是出了?{mellow:]

有实物测试了和嘴巴里说说加上显存就可以了哪个更雷{mellow:]
回复 支持 反对

使用道具 举报

27#
发表于 2008-9-2 14:25 | 只看该作者
原帖由 半夜鬼哭 于 2008-9-2 13:00 发表

就算占有率达到30%,这个蛋糕也远比AMD市场要大的多,nvidia可以通过SLI授权和保证不进入高端市场换取intel的部分妥协
谁又能保证nvidia的集成芯片组不会发展成当初的ati的RC410一样


那NV就先授权SLI让步再说吧,拿INTEL平台30%份额?你想让NV死也不用这样吧?{mellow:]
回复 支持 反对

使用道具 举报

28#
发表于 2008-9-2 14:27 | 只看该作者
原帖由 粉蒸排骨 于 2008-9-2 14:18 发表

人家说的是780G,你自己一厢情愿的认为说的是790GX还用来取笑别人,我真的被你雷倒了
AMD平台现在主流的是780G可不是什么790GX,还有MCP7A是INTEL平台的

780G 目前是淘汰产品了,大厂基本都在清货,790GX 已经是主流了,价格还可以。
回复 支持 反对

使用道具 举报

29#
发表于 2008-9-2 14:27 | 只看该作者
原帖由 粉蒸排骨 于 2008-9-2 14:25 发表

有实物测试了和嘴巴里说说加上显存就可以了哪个更雷{mellow:]


那要看A家觉得有没有必要加了,不然还真雷定了:charles:
回复 支持 反对

使用道具 举报

30#
发表于 2008-9-2 14:29 | 只看该作者
不错,这次的MCP7A很值得期待。
BIOS有BUG的单通道下都能这成绩,上双通估计能破E3K。
这次的集显性能和AMD平台的790GX绝对有的一拼,在INTEL平台更是绝对无敌了。
回复 支持 反对

使用道具 举报

31#
发表于 2008-9-2 14:30 | 只看该作者
原帖由 我奏是马甲 于 2008-9-2 14:14 发表


E3000+的790GX就这样被你无视了。其实就算790GX打不过,AMD多焊一颗显存在背面,做成32BIT,性能再次提高一大截。。你没发现7XX系列主板显存都是预留位置的吗?呵呵


集成显卡又不是用来打游戏的
只要有适当的速度就可以了
回复 支持 反对

使用道具 举报

32#
发表于 2008-9-2 14:31 | 只看该作者
原帖由 ANTI~TRUST 于 2008-9-2 14:27 发表


那要看A家觉得有没有必要加了,不然还真雷定了:charles:

果然pchome不入流的编辑说话不用打草稿了
回复 支持 反对

使用道具 举报

33#
发表于 2008-9-2 14:31 | 只看该作者
好强,E的跑分居然5帧以下……
回复 支持 反对

使用道具 举报

34#
发表于 2008-9-2 14:32 | 只看该作者
原帖由 半夜鬼哭 于 2008-9-2 12:39 发表
卖这么久了怎么AMD的平台占有率只有nvidia的一半多点
话说nvidia应该完全放弃amd平台,死鱼一样的平台有什么好支持的,努力做好intel的集成就行


那什么时候Intel对nVidia来个VIA门,那nVidia怎么办?装死?倒闭?还是你给nVidia指条路走?!
回复 支持 反对

使用道具 举报

35#
发表于 2008-9-2 14:35 | 只看该作者
原帖由 johngoo 于 2008-9-2 14:32 发表


那什么时候Intel对nVidia来个VIA门,那nVidia怎么办?装死?倒闭?还是你给nVidia指条路走?!


VIA是没有授权的,NV是有授权的
回复 支持 反对

使用道具 举报

36#
发表于 2008-9-2 14:36 | 只看该作者
原帖由 粉蒸排骨 于 2008-9-2 14:31 发表

果然pchome不入流的编辑说话不用打草稿了



涉及人身攻击,但错话就不值得举报了,八卦精神值得鼓励{titter:]
回复 支持 反对

使用道具 举报

cellwing 该用户已被删除
37#
发表于 2008-9-2 14:36 | 只看该作者
提示: 作者被禁止或删除 内容自动屏蔽
回复 支持 反对

使用道具 举报

38#
发表于 2008-9-2 14:39 | 只看该作者
这种主板直接高温花掉。
回复 支持 反对

使用道具 举报

39#
发表于 2008-9-2 14:48 | 只看该作者
原帖由 phehoo 于 2008-9-2 14:39 发表
这种主板直接高温花掉。

你这种人扎应该消失掉,请版主不要删除,我有证据证明此人的所作所为佩的上真小~人这个称号
请看c  h  i  p  h  e  l  ll的帖子,标题是AMD-ATI 的架构优势和NV CUDA+G80体系架构的极限(PHEHOO原创)

地址:http://bbs.xxx.com/viewthread.php?tid=23925,自行替换xxx
文章内容:
让大家等了2天,今天我PHEHOO的文章就和大家见面了。不知道这里有没有人认识我PHEHOO的。先不管这个,入正题。
估计现在基本上所有热心的显卡FANS都知道,NV的一个基于G80架构体系的显卡系列(GEFORCE 8/9/200)把ATI基于R600的架构给比下去了。NV的这个架构有它的过人之处,就是异频式结构,暴力标量化代码编译统一执行,高缓存执行线程,嵌套CUDA模块,以及著名的THE WAYS计划。这些都是足以让这个架构的系列显卡速度优异的条件,更高的编译效率,随意的游戏编程代码格式,宽裕的后期执行效率,可编程的C/C++特性,和相应的送钱垄断策略。

相信,大家对NV这个架构的一些特性多少已经略有了解,所以我也不重复的,更细致的介绍。这里,我只说一下CUDA和G80架构的暴力标量化代码编译执行,因为这已经是这一体系架构的极限(随后的内容中解释)。
首先,CUDA是 NVIDIA 的 GPGPU 模型,它使用 C 语言为基础,可以直接以大多数人熟悉的 C 语言,写出在显示芯片上执行的程序,而不需要去学习特定的显示芯片的指令或是特殊的结构。现代的显示芯片已经具有高度的可程序化能力,由于显示芯片通常具有相当高的内存带宽,以及大量的执行单元,因此开始有利用显示芯片来帮助进行一些计算工作的想法,即 GPGPU。CUDA 即是 NVIDIA 的 GPGPU 模型。

使用显示芯片来进行运算工作,和使用 CPU 相比,主要有几个好处:
- 显示芯片通常具有更大的内存带宽。例如,NVIDIA 的 GeForce 8800GTX 具有超过 50GB/s 的内存带宽,而目前高阶 CPU 的内存带宽则在 10GB/s 左右。
- 显示芯片具有更大量的执行单元。例如 GeForce 8800GTX 具有 128 个 "stream processors",频率为 1.35GHz。CPU 频率通常较高,但是执行单元的数目则要少得多。
- 和高阶 CPU 相比,显卡的价格较为低廉。例如目前一张 GeForce 8800GT 包括 512MB 内存的价格,和一颗 2.4GHz 四核心 CPU 的价格相若。

所谓的好处,这些都是比较侧面的优势,也就是说片面的。使用NV G80系列架构显示芯片做GPGPU运算有它的一些缺点:
- 显示芯片的运算单元数量很多,因此对于不能高度并行化的工作,所能带来的帮助就不大。
- 显示芯片目前通常只支持 32 bits 浮点数,且多半不能完全支持 IEEE 754 规格, 有些运算的精确度可能较低。目前许多显示芯片并没有分开的整数运算单元,因此整数运算的效率较差。
- 显示芯片通常不具有分支预测等复杂的流程控制单元,因此对于具有高度分支的程序,效率会比较差。
- 目前 GPGPU 的程序模型仍不成熟(推出GEFORCE 200系列只是一个晃子,以后会做解释),也还没有公认的标准。例如 NVIDIA 和 AMD/ATI 就有各自不同的程序模型。

由于显示芯片大量并行计算的特性,它处理一些问题的方式,和一般 CPU 是不同的。主要的特点包括:
- 内存存取 latency 的问题:CPU 通常使用 cache 来减少存取主内存的次数,以避免内存 latency 影响到执行效率。显示芯片则多半没有 cache(或很小),而利用并行化执行的方式来隐藏内存的 latency(即,当第一个 thread 需要等待内存读取结果时,则开始执行第二个 thread,依此类推)。
- 分支指令的问题:CPU 通常利用分支预测等方式来减少分支指令造成的 pipeline bubble。显示芯片则多半使用类似处理内存 latency 的方式。不过,通常显示芯片处理分支的效率会比较差。
因此,最适合利用 CUDA 处理的问题,是可以大量并行化的问题,才能有效隐藏内存的 latency,并有效利用显示芯片上的大量执行单元。使用 CUDA 时,同时有上千个 thread 在执行是很正常的。因此,如果不能大量并行化的问题,使用 CUDA 就没办法达到最好的效率了。

我们都知道AMD的FUSION架构,通俗的说就是CPU+GPU的合成架构。目的很简单,简单的说就是在需要执行量化thread的时候的时候让其中的GPU核心部分执行,以加快CPU整体速度。那么,对此,NV和ATI的GPU核心存在什么区别呢?通俗的说,NV的G80体系是纯机械化的,无执行先后次序的,无代码繁简区别的,无“思维”的。这个架构是自行对代码判断和编译的,缺少了一个超线程分派处理器设计。因此,在驱动的帮助下,它不能“主动的”对代码作出选择,作出归类,作出优化。所以G80体系是不能够实现和任何CPU的架构融合的,原因在于,已存在的或正在设计的任何类别的CPU架构都不能和G80体系架构做FUSION融合。

这也是G80体系架构的极限。一个半完全的,无“思维”的(“思维”指的是靠驱动来灵活操纵),机械的高速拆分,执行代码的架构。ATI的R600架构正好和它相反。它的设计,从根本上支持了对FUSION架构的实现。R600是一个很超前的设计,虽然因某些设计上的问题(已经有介绍这方面的文章,相信大家也看到了),和游戏策略(例如,THE WAYS方案的侵略)上的问题,在速度上没有能够实现超越,甚至匹敌G80体系的愿望。但是它灵活的主动内核,正好符合了CPU+GPU的FUSION混合架构的需要。相对INTEL,由于INTEL没有类似显卡制作上的经验,所以准备推出Larrabee。目的很简单,因为相对R600,Larrabee对代码更聪明,更“主动”,但是,对比R600也更慢,但是这点却是很要命的。更聪明和聪明,更“主动”和“主动”,这些都可以用驱动来弥补,但是执行速度却。。。这是INTEL未来的CPU+GPU混合架构和AMD的FUSION架构的区别和落后之处。而今天的NV的显卡架构与此无缘。不是因为NV缺少CPU的制作经验,而是从根本上NV目前的显卡架构限制了这个发展。因此,NV希望通过CUDA,通过他在速度上的优势,只求快,不求准的标准,率先侵略市场,并为今后的全新架构做好市场铺垫。

说到这里,我PHEHOO认为,其实NV的GEFORCE 200系列只是一个幌子,在市场还没完全需要和适应CPU+GPU的FUSION混合架构的时候,先利用CUDA和新堆积的流处理器来侵略一下眼球。为的是让自己正在秘密研制的新一带核心架构争取时间。而这里说的新一代,将是融合了类似R600的超线程分派处理器设计和改进的标量执行单元的架构。为今后的市场和竞争做好准备。
而AMD/ATI呢,将会努力实现FUSION这个非常先进和超前的架构,速度会比INTEL的新架构更快(部分运算优势将达50-150%)。ATI的R800呢,将又回到512 BITS的架构(为全新第一阶段FUSION架构的“升级版”做好GPU部分的核心架构设计准备)并继续贯彻GPU多核的策略来制压NV。

写到这里,明显感到手酸了。也没动力写了,其实还有很多东西要说。但都说出来就没意思了,也不能YY了。先写到这里吧,大家可以细细琢磨琢磨,至于能思考到什么程度,认同与否,和我就没多大关系了。因为这不是我PHEHOO的这篇文章所追求的,要达到的目的。谢谢。2008年6月7日



这篇文章就是pcinlife论坛置顶的特约作者的文章,看看原贴被人踢暴的情况
http://we.pcinlife.com/viewthread.php?tid=946238&highlight=
这个帖子是我在PCI发的举报贴,有兴趣的刻意去看看真小~人

[ 本帖最后由 迪迪 于 2008-9-2 14:50 编辑 ]
回复 支持 反对

使用道具 举报

40#
发表于 2008-9-2 14:50 | 只看该作者
不要脸的家伙抄袭原作者的东西说成自己的,基本没改过,只差图片没复制过来
原文章地址:http://www.pcinlife.com/article/graphics/2008-06-04/1212575164d532.html
作者:hotball(热球)
GPGPU 的优缺点

使用显示芯片来进行运算工作,和使用 CPU 相比,主要有几个好处:
  • 显示芯片通常具有更大的内存带宽。例如,NVIDIA 的 GeForce 8800GTX 具有超过 50GB/s 的内存带宽,而目前高阶 CPU 的内存带宽则在 10GB/s 左右。
  • 显示芯片具有更大量的执行单元。例如 GeForce 8800GTX 具有 128 个 "stream processors",频率为 1.35GHz。CPU 频率通常较高,但是执行单元的数目则要少得多。
  • 和高阶 CPU 相比,显卡的价格较为低廉。例如目前一张 GeForce 8800GT 包括 512MB 内存的价格,和一颗 2.4GHz 四核心 CPU 的价格相若。
当然,使用显示芯片也有它的一些缺点:
  • 显示芯片的运算单元数量很多,因此对于不能高度并行化的工作,所能带来的帮助就不大。
  • 显示芯片目前通常只支持 32 bits 浮点数,且多半不能完全支持 IEEE 754 规格, 有些运算的精确度可能较低。目前许多显示芯片并没有分开的整数运算单元,因此整数运算的效率较差。
  • 显示芯片通常不具有分支预测等复杂的流程控制单元,因此对于具有高度分支的程序,效率会比较差。
  • 目前 GPGPU 的程序模型仍不成熟,也还没有公认的标准。例如 NVIDIA 和 AMD/ATI 就有各自不同的程序模型。
整体来说,显示芯片的性质类似 stream processor,适合一次进行大量相同的工作。CPU 则比较有弹性,能同时进行变化较多的工作。
CUDA 架构

CUDA 是 NVIDIA 的 GPGPU 模型,它使用 C 语言为基础,可以直接以大多数人熟悉的 C 语言,写出在显示芯片上执行的程序,而不需要去学习特定的显示芯片的指令或是特殊的结构。
在 CUDA 的架构下,一个程序分为两个部份:host 端和 device 端。Host 端是指在 CPU 上执行的部份,而 device 端则是在显示芯片上执行的部份。Device 端的程序又称为 "kernel"。通常 host 端程序会将数据准备好后,复制到显卡的内存中,再由显示芯片执行 device 端程序,完成后再由 host 端程序将结果从显卡的内存中取回。


由于 CPU 存取显卡内存时只能透过 PCI Express 接口,因此速度较慢(PCI Express x16 的理论带宽是双向各 4GB/s),因此不能太常进行这类动作,以免降低效率。
在 CUDA 架构下,显示芯片执行时的最小单位是 thread。数个 thread 可以组成一个 block。一个 block 中的 thread 能存取同一块共享的内存,而且可以快速进行同步的动作。
每一个 block 所能包含的 thread 数目是有限的。不过,执行相同程序的 block,可以组成 grid。不同 block 中的 thread 无法存取同一个共享的内存,因此无法直接互通或进行同步。因此,不同 block 中的 thread 能合作的程度是比较低的。不过,利用这个模式,可以让程序不用担心显示芯片实际上能同时执行的 thread 数目限制。例如,一个具有很少量执行单元的显示芯片,可能会把各个 block 中的 thread 顺序执行,而非同时执行。不同的 grid 则可以执行不同的程序(即 kernel)。
Grid、block 和 thread 的关系,如下图所示:

每个 thread 都有自己的一份 register 和 local memory 的空间。同一个 block 中的每个 thread 则有共享的一份 share memory。此外,所有的 thread(包括不同 block 的 thread)都共享一份 global memory、constant memory、和 texture memory。不同的 grid 则有各自的 global memory、constant memory 和 texture memory。这些不同的内存的差别,会在之后讨论。
执行模式

由于显示芯片大量并行计算的特性,它处理一些问题的方式,和一般 CPU 是不同的。主要的特点包括:
  • 内存存取 latency 的问题:CPU 通常使用 cache 来减少存取主内存的次数,以避免内存 latency 影响到执行效率。显示芯片则多半没有 cache(或很小),而利用并行化执行的方式来隐藏内存的 latency(即,当第一个 thread 需要等待内存读取结果时,则开始执行第二个 thread,依此类推)。
  • 分支指令的问题:CPU 通常利用分支预测等方式来减少分支指令造成的 pipeline bubble。显示芯片则多半使用类似处理内存 latency 的方式。不过,通常显示芯片处理分支的效率会比较差。
因此,最适合利用 CUDA 处理的问题,是可以大量并行化的问题,才能有效隐藏内存的 latency,并有效利用显示芯片上的大量执行单元。使用 CUDA 时,同时有上千个 thread 在执行是很正常的。因此,如果不能大量并行化的问题,使用 CUDA 就没办法达到最好的效率了。
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 注册

本版积分规则

广告投放或合作|网站地图|处罚通告|

GMT+8, 2025-3-9 23:58

Powered by Discuz! X3.4

© 2001-2017 POPPUR.

快速回复 返回顶部 返回列表