|
你们都没有抓住问题的本质。
通常认为理想晶体管是不会有漏电流的,只需要维持偏置电压就可以让晶体管工作。没有漏电流就不会有功耗,所以理想的CPU是不会有发热的。
由此得出结论GPU的工艺不如CPU,所以造成漏电流较大,功耗也会比较高。
但是实际上并不是这样的,这个世界并不是这么简单的:shifty:
问题的实质是在于熵的变化上
量子计算机的概念源于对可逆计算机的研究,而研究可逆计算机是为了克服计算机中的能耗问题。早在六七十年代,人们就发现,能耗会导致计算机芯片的发热,影响芯片的集成度,从而限制了计算机的运行速度。Landauer[3]最早考虑了这个问题,他考察了能耗的来源,指出:能耗产生于计算过程中的不可逆操作。例如,对两比待的异或操作,因为只有一比特的输出,这一过程损失了一个自由度,因此是不可逆的,按照热力学,必然会产生一定的热量。但这种不可逆性是不是不可避免的呢?事实上,只要对异或门的操作如图1所示的简单改进,即保留一个无用的比特,该操作就变为可逆的。因此物理原理并没有限制能耗的下限,消除能耗的关键是将不可逆操作改造为可逆操作
意思是普通计算机在运行过程中会伴随着信息量的减少,而减少的信息就会转变成热量。
如今GPU的运算能力已经大大超过CPU,所以随之而来的就是发热量的增大。即使再改进工艺也无济于事。 |
|