|
原帖由 smilexp 于 2006-6-4 22:50 发表
- i z0 `3 ] i
* k2 Z0 F, }) e7 e, r* F+ Z: a! y0 K5 c6 p& u+ c1 t8 Y0 l& S
延迟能有多少?要是有延迟问题,专业声卡都不用混了,也别用电脑混音制作CD了) Q: Q. i% ?/ k8 U5 R& {) T
5 m t V$ }2 x4 _# Y2 u让我们估算一下1秒钟声卡需要处理的数据量:5 J+ G; y% [) O6 Z! z3 Y
即使一个BT游戏是实时7.1声道192KHz/24Bit输出,那么+ q& z( R1 H: X2 @' g& g
192000X24X8/8/1024=4500 ...
2 Y5 h$ p1 c8 y7 t: P
) ~; N8 k1 _1 f: T2 F你的理解就是错误的。
6 J1 G, v$ [) r
& @* [8 r5 B5 A& |1 x! f3 K1 X你上文说的过程是声卡收到数据并处理输出的过程,按我的理解,对于高性能的声音处理器来说,这个过程应该是延迟最小的一个阶段,而且你所举的音频数据量也说明瓶颈并没有在声卡本身。+ L- y: |" T- h% P
5 F7 `) R/ f+ }6 t. u/ A
我所说的延迟指的是音频数据从内存传递到声卡这段时间产生的延迟。% w) R3 k( m5 O" V$ `
( J, o. n1 C" [+ d* ?6 Kcpu发出指令要求声卡处理某部分音频数据,需要把数据从内存通过北桥送至声卡所处的pci接口,cpu可能还要等待声卡反馈的信息,这个过程不可避免要有延迟产生,pci不想agp接口还有快写的设置,并不能直接读取内存中的信息,以pci接口133M/s的速度,1.5M的数据要11.5ms才能发给声卡,还得是声卡独占pci带宽,这在实际应用中是不可能的,加上北桥的延迟,恐怕要15~20ms才能完成。
5 F4 J/ _* s' u7 T5 A对于一颗3G的cpu来说,20ms是多少个时钟周期?可以干多少工作?一颗高性能的Gpu在20ms里可以渲染一帧完整的游戏画面,现在大家都要停下来,只为了等声卡小弟弟发出的那一声响亮的“bang”* A! J8 [, M- H/ ]. w( r x/ ~$ m
" L! j. L6 Q6 v, \0 C3 E我不懂pc技术,上面说的细节就算是主观臆断,但我相信原则表达清楚了。也希望真正的技术高人能出面为我等解惑。 |
|