|
去PCI看了 爱迪生的文章
深入浅出谈CUDA
http://www.pcinlife.com/article/graphics/2008-06-04/1212575164d532.html
不错的介绍性文章,大家可以看看
其中有一段:
在 CUDA 中,GPU 不能直接存取主内存,只能存取显卡上的显示内存。因此,会需要将数据从主内存先复制到显卡内存中,进行运算后,再将结果从显卡内存中复制到主内存中。这些复制的动作会限于 PCI Express 的速度。使用 PCI Express x16 时,PCI Express 1.0 可以提供双向各 4GB/s 的带宽,而 PCI Express 2.0 则可提供 8GB/s 的带宽。当然这都是理论值。
从一般的内存复制数据到显卡内存的时候,由于一般的内存可能随时会被操作系统搬动,因此 CUDA 会先将数据复制到一块内部的内存中,才能利用 DMA 将数据复制到显卡内存中。如果想要避免这个重复的复制动作,可以使用 cudaMallocHost 函式,在主内存中取得一块 page locked 的内存。不过,如果要求太大量的 page locked 的内存,将会影响到操作系统对内存的管理,可能会减低系统的效率。
=============
我就实战了这一段
GALAXY 790I ULTRA SLI
OCZ DDR3 1600 1GX2
Q9450 OC 450X8=3.6G
GALAXY GTX280 STD
Dell 2707
一个PCIE总线 默认的100
一个是从BIOS超频到120
[ 本帖最后由 pacificwater 于 2008-6-27 10:09 编辑 ] |
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有帐号?注册
x
|