POPPUR爱换

标题: 上个时代是 i386,这个时代是 amd64,什么时候推广 128 位? [打印本页]

作者: Boomer    时间: 2011-10-13 08:52
标题: 上个时代是 i386,这个时代是 amd64,什么时候推广 128 位?
Intel 现在惟一没法抹去的 AMD 印记就是这个…话说不知道 amd64 能不能像 i386 一样挺个 20 年…
作者: chentaizong    时间: 2011-10-13 08:59
所谓多少位一般指内存总线位宽,不算控制总线和数据总线的。
32位内存寻址为4G,64位最大可支持寻址4GX4G=16GG=160亿G,足够用了。128位在本世纪还看不出需求。
高端服务器93年开始64位,现在也没128位的意思。
至于cpu内部的数据总线,早就128位了,为了提高速度,以后到多少位都不稀奇,无非多加通道。
作者: gtx5    时间: 2011-10-13 09:01
本帖最后由 gtx5 于 2011-10-13 09:02 编辑

可以抹去的,把64位系统的那些带AMD或64的文件或文件夹删除

就可以了,我在公司的电脑删了没有不良反应

作者: KeyGen    时间: 2011-10-19 21:08
当初16位到32位的确是划时代。当时就觉得纯32位系统的NT好稳定啊!其它的都无所谓了。
作者: wl00560    时间: 2011-10-19 21:15
128位有意义吗?64位的内存是肯定足够用了,至少五十年不会成为瓶颈……
其余的有优势吗?怎么老是听人说有128位的Windows 8?
作者: 乐极生悲    时间: 2011-10-19 22:08
提示: 作者被禁止或删除 内容自动屏蔽
作者: Boomer    时间: 2011-10-20 09:07
KeyGen 发表于 2011-10-19 21:08
当初16位到32位的确是划时代。当时就觉得纯32位系统的NT好稳定啊!其它的都无所谓了。

那个时候还有 WINNT i386 ALPHA MIPS 等等的不同版本…现在就剩个 i386 和 amd64 了,而且 i386 逐步淘汰,amd64 是主流…
作者: tjashuro    时间: 2011-10-20 09:19
本帖最后由 tjashuro 于 2011-10-20 09:19 编辑

160亿g,到太阳爆炸也不会有机器上这么大内存的。。。
作者: jenny8227    时间: 2011-10-20 13:30
tjashuro 发表于 2011-10-20 09:19
160亿g,到太阳爆炸也不会有机器上这么大内存的。。。

这话说得有些满了

我接触到的第一台电脑,586

内存16M 硬盘512M

10多年过去了,我现在的电脑内存是4G,涨了250倍。硬盘是2TX3+ssd,就算一个硬盘2t,翻了3096倍

我相信再过10年,再翻同样的倍数,不难吧?

到太阳爆炸。。。。
作者: yaoshu    时间: 2011-10-20 13:36
4G翻个5W倍,也到不了160亿G
作者: CC9K    时间: 2011-10-20 14:03
按现在的速度,只要再4个10年就是156亿G
作者: CC9K    时间: 2011-10-20 14:05
当然X86还能不能撑40年还不好说
作者: asuka2142    时间: 2011-10-20 14:27
存储容量不可能一劳永逸
五十年前电脑那是国家级奢侈品

作者: goldman948    时间: 2011-10-20 14:34
用过8MB内存486dx4系统飘过
作者: goldman948    时间: 2011-10-20 14:41
KeyGen 发表于 2011-10-19 21:08
当初16位到32位的确是划时代。当时就觉得纯32位系统的NT好稳定啊!其它的都无所谓了。

nt系统稳定的原因是m$从nt核心开始用c语言编写,比起之前的
95/98用组合语言当然稳定n倍,但是代价就是效率大幅降低,所以
以前才会有坚持98无视xp党存在,和16/32位无关.
作者: nsamnew    时间: 2011-10-20 15:59
比尔盖兹80年代说过,家用机有640K内存就够用了。
IBM80年代说过,全世界5台巨型机就够了。
2011年我说
            2020年就是普及TB内存了
            2015年就PC逐渐淘汰机械部分了
            2025年本地不需要存储了
            2030年本地不需要运算了
            2040年没有固定的台式设备了
作者: xf-108    时间: 2011-10-20 16:09
jenny8227 发表于 2011-10-20 13:30
这话说得有些满了

我接触到的第一台电脑,586

我想说,物质的基本颗粒大小是有极限的……
也许几十年后有内存160亿G的超算吧。
160亿GB相当于1600万TB,天河一号大概是100TB吧,16万倍而已嘛,还是可能达到的。
作者: dreamz3    时间: 2011-10-20 17:18
xf-108 发表于 2011-10-20 16:09
我想说,物质的基本颗粒大小是有极限的……
也许几十年后有内存160亿G的超算吧。
160亿GB相当于1600万T ...

物质的基本颗粒是有极限的,但目前的晶体管结构不够用可以用量子态……科技发展无极限
作者: doocoo    时间: 2011-10-20 17:35
你们都在现有计算机框架里面谈事,哈哈,五十年以后天晓得我们在用什么样的东西,技术有时候会突然飞跃一下子
作者: spring62    时间: 2011-10-20 18:21
dreamz3 发表于 2011-10-20 17:18
物质的基本颗粒是有极限的,但目前的晶体管结构不够用可以用量子态……科技发展无极限

理论上一个量子可以是任意的自旋于是存储无限多的数据,但是读取出来就坍缩成非1即0……目前是这样
作者: cybrans    时间: 2011-10-20 18:27
一摩尔有6*10的23次方,

即是有600多P个,如果以后技术发展到分子电路的程度,能用10个原子调制1个比特位,

那么按内存芯片的重量计算,台式机上的RAM调制10PBye的的容量没问题,貌似就超越64位的1PB寻址了...

不过128Bit以上的寻址,恐怕是量子态运算之后的事情了。


不过倒是计算机是不是现在这种处理器—总线—内存架构的还不一定,好像直接融合到内存中计算的非冯芯片已经有实验了。
作者: itany    时间: 2011-10-20 21:55
SSE本来就是128位的宽度么
关键是你用不到128位的寻址和操作数啊~
AVX还是256位的呢。

其实没有楼主说的那样不堪吧
作者: KeyGen    时间: 2011-10-21 08:51
goldman948 发表于 2011-10-20 14:41
nt系统稳定的原因是m$从nt核心开始用c语言编写,比起之前的
95/98用组合语言当然稳定n倍,但是代价就是效率 ...

从哪里复制过来的,还组合语言。难不成你是港台人士。
作者: 冬瓜大师    时间: 2011-10-21 10:10
提示: 作者被禁止或删除 内容自动屏蔽




欢迎光临 POPPUR爱换 (https://we.poppur.com/) Powered by Discuz! X3.4