POPPUR爱换

 找回密码
 注册

QQ登录

只需一步,快速开始

手机号码,快捷登录

搜索
查看: 6613|回复: 64
打印 上一主题 下一主题

"龙芯"就是一个瘫

[复制链接]
跳转到指定楼层
1#
发表于 2010-10-13 12:19 | 只看该作者 回帖奖励 |正序浏览 |阅读模式
龙芯算是中国现在一项重要科研项目了,钱是几个亿几个亿往里砸,印象中有六七年过去了,还是蒙着一层神秘的面纱。性能据说是媲美奔腾4了,但是没说是哪款P4,频率、架构、步进,是5系6系双核的8系,还是刚出来的时候那种连P3都不如的P4?不知道,后来才补充了一个P4 2.0,但是这个结论怎么来的,用哪种方法测试的,还是不知道。量产也说了好几年了,像天上的浮云一样,基本从来没兑现过,今年向外界发放了第一批龙芯电脑,但是测试数据必须保密,甚至连《微型计算机》这种权威杂志也不例外,所以《微机》上次给出的龙芯评测特别搞笑,说龙芯可以聊QQ、玩连连看、看电影,至于浮点计算、整数计算什么的,具体的数值都没有,你好歹算个圆周率小数点后一百万位,看看得几小时吧?这可能是《微机》有史以来最业余最没实际内容的一次评测,连这些事都干不了,还叫什么电脑,改名叫小霸王学习机算了。

我是不相信龙芯有什么料的。第一是主设计师胡伟武确确实实是举世无双的大SB,他放出的每篇关于龙芯的论文都必然提到【论坛严禁话题,请勿再谈,我们会保留追究的权利】,还占不少篇幅。每当他遇到技术难题时,就组织龙芯小组学习【论坛严禁话题,请勿再谈,我们会保留追究的权利】思想,结果就攻克了一个个难题。我觉得不说SB这么严重,起码这个人很不实在。其二是龙芯牛B吹得太多了,说是媲美P4,这句话太空泛了,一点实际意义都没有,骗骗外行还可以。说马上就能年产多少多少CPU,这个我已经当作每年的一个保留节目了,就像EA的骗钱大作《极品飞车》一样。李国杰还放话说要造64核,要彻底颠覆世界的计算机技术,现在又不吭声了,我很想知道已现有的技术造个64核那DIE SIZE得有多大,封装出的CPU是不是比他的脸还大?

是的,龙芯详细的资料我都不知道,它保密了吗。但我就是敢说它没料,我这个人很看重品格的,对于那些一向喜欢忽悠人的,他说的每句话我都要严格的证明,否则不予参考;那些总是说实话只是偶尔出错的人,他就算一个论据都没有我也可以相信,就跟银行的信用制度差不多。比如这两天外媒都在报导说嫦娥失踪了,中国官方马上跳出来说,这是完全正常的,不用担心。那我就不知道该不该信了,因为你老是忽悠人,我SPZ左边那栏留下的全是你光辉灿烂的事迹,留下的都是你的微言大义舌璀莲花,你说不用担心,可最近一段时间又对嫦娥三缄其口,我哪能不担心啊?

龙芯那帮设计者在我看来就是一帮没节操的人,年年说量产年年没影子,这种小母牛过生日牛B大了的人,要能搞出成果就真活见鬼了,龙芯若是有料,还保密呢,早就四处乱吹了,就算数字真的很烂吧,咱也无所谓啊,中国啥都缺,就是不缺SB,你就算只跟奔腾2差不多,SB们也不会当一回事的,他们只要有就行了,就像金二造原子弹,朝鲜人都很开心。至于导弹技术落后,造出来的原子弹只能炸炸中国韩国和他们自己,这个没多少人关心的,对他们来说,只要有原子弹,一切帝国主义就都只是纸老虎了。龙芯现在搞这么神秘吧,第一数字应该确实拿不出手,第二估计也是吃了上顿没下顿,持续发布成果的话,万一哪天研究突然熄火了,就很不好跟那些媒体交代了。其实纵观中国这几年的科研成就,大都没什么料,比如
65#
发表于 2010-10-21 18:21 | 只看该作者
什么都要有个成长的过程,如果**不搞龙芯就用老美的才是**,所以LZ**~
回复 支持 反对

使用道具 举报

64#
发表于 2010-10-21 17:30 | 只看该作者
楼主所引用文章的原作者是半导体文盲

以上
回复 支持 反对

使用道具 举报

63#
发表于 2010-10-21 16:46 | 只看该作者
纯粹为了反对而反对,
如果完全没有芯片,就会说中国这么多人,芯片都造不了,如果造得不好,就是浪费纳税人的钱,如果造得比较好,那肯定是偷的技术,要不就是买外国人的来刷的漆。这种人在天涯见得太多了,这种文章发到天涯之类赞同声音会多些,毕竟PCI的人懂得多些。
回复 支持 反对

使用道具 举报

62#
发表于 2010-10-21 16:20 | 只看该作者
龙芯还是不错的,毕竟能做到4-issue,你看那amd也就才3-issue。龙芯才刚刚起步,相比起Intel这类历史悠久的 ...
foxroz2003 发表于 2010-10-16 23:24

龙芯从一开始就说是MIPS指令集的CPU,什么时候都没说自己要研发全新架构的CPU
如果你看到的是这类宣传,天知道是他们是收了国内哪家单位的钱
回复 支持 反对

使用道具 举报

61#
发表于 2010-10-21 16:18 | 只看该作者
龙芯杯具!!!!!!1
回复 支持 反对

使用道具 举报

60#
发表于 2010-10-21 16:17 | 只看该作者
还是看看美国研究生的水平再来护主吧

         ICASSP 2009 Final Submission 9/29/08

             ...
PRAM 发表于 2010-10-21 12:34


拜托排版,否则发了也白发,没人看
回复 支持 反对

使用道具 举报

59#
发表于 2010-10-21 16:16 | 只看该作者
现在的龙黑出没频繁啊
难道已经影响到了I/A?
sszr 发表于 2010-10-15 22:36

估计是又影响到国内某家单位/公司了

至于I/A,你以为龙芯是它们的对手?
回复 支持 反对

使用道具 举报

58#
发表于 2010-10-21 16:14 | 只看该作者
关于详细的技术性的东西我只能尝试理解,因为不是学这个的....

  不过美国对于中国的遏制确实是存在的, ...
chenhua007very 发表于 2010-10-13 17:47

做为常识
他扯M那本身就是在和上面作对
那么聪明的集体,什么不去扯D,而去扯M呢!!!
回复 支持 反对

使用道具 举报

57#
发表于 2010-10-21 16:10 | 只看该作者
每当这种帖子出现的时候,就说明龙芯多少又出成绩了
回复 支持 反对

使用道具 举报

56#
发表于 2010-10-21 12:55 | 只看该作者
龙芯都是属蜗牛的呀 深圳上网本U 都断货了 也不见龙芯放
回复 支持 反对

使用道具 举报

55#
发表于 2010-10-21 12:39 | 只看该作者
所谓的“国产CPU”,龙芯决不是第一家。只不过下面这个公司比较低调,没像龙芯及其饭们那样瞎嚷嚷。

“MISC9800CPU是多思公司继1995年研发成功中国第一块64位通用CPU样片MISC 80160 CPU,经国家“863”进行验收和北京 市科委成果评定后,又组织北京 科技大学、中国科技大学、北京 航空航天大学、华北计算机研究所、中国华大集成电路设计中心等国内有关科研单位及大学院校参加,协作研发的一块升级改进型的中国64位高性能通用CPU芯片产品,在1998年4月开始研制,在2000年7月13日完成设计,在2001年11日本富士通公司加工制成样片。MISC 9800 CPU芯片的成功,标明我国在自行设计64位高性能通用CPU芯片的关键技术上,已经获得重大突破,先后申请专利19项,具有82项专有技术,并取得具有我国独立自主知识产权的、64位高性能通用CPU芯片的重要技术成果。”
回复 支持 反对

使用道具 举报

54#
发表于 2010-10-21 12:34 | 只看该作者
龙芯已经到了这样一种境界——就好比武林高手一样,你永远看不到他,只能听见他的声音,他永远飘荡在山巅海波之上,你只能远远膜拜,因为他在保卫国家安全,因为他在学习【论坛严禁话题,请勿再谈,我们会保留追究的权利】语录,他将永远这样飘下去,让国人始终保持着对国产CPU的憧憬,永远的憧憬……
回复 支持 反对

使用道具 举报

53#
发表于 2010-10-21 12:34 | 只看该作者
产品先进,销售方式也先进,其实不用改了么,这么先进的产品,这么先进行销方式,何必为了几个你们不待见的不明真相恶意滋事影响某种水产的非D员
回复 支持 反对

使用道具 举报

52#
发表于 2010-10-21 12:34 | 只看该作者
还是看看美国研究生的水平再来护主吧

         ICASSP 2009 Final Submission 9/29/08

                                                       SPARSE BOOSTING

                                           Zhen James Xiang and Peter J. Ramadge

                          Dept. of Electrical Engineering, Princeton University, Princeton NJ

                           ABSTRACT                                      straint [10]. The idea of l  -regularized loss minimization has
                                                                                                      1
                                                                         been  explored  in  [9].   However,  direct  solution  of  the  con-
We propose a boosting algorithm that seeks to minimize the
                                                                         vex  l  -regularized  loss  problem  is  computationally  too  ex-
                                                                               1
AdaBoost  exponential  loss  of  a  composite  classifier  using
                                                                         pensive in many real applications.       This has lead to propos-
only a sparse set of base classifiers.  The proposed algorithm
                                                                         als for indirect methods of solution.      To this end, -boosting
is  computationally  efficient  and  in  test  examples  produces
                                                                         seeks  to  solve  the  regularized  problem  iteratively  adding  a
composite classifies that are sparser and generalization bet-
                                                                         small weight  to one base classifier each iteration [5]. How-
ter than those produced by Adaboost.  The algorithm can be
                                                                         ever,  -boosting  is  too  inefficient  for  practical  application.
viewed as a coordinate descent method for the l  -regularized
                                                      1                  Other work has examined combining Adaboost with smaller
Adaboost exponential loss function.
                                                                         l  -regularized loss optimization problems from the perspec-
                                                                          1
    Index Terms—  Pattern classification, Algorithms, Signal              tive of maximizing the margin on the training examples [11].
representations, Optimization methods.                                   Despite this work, there remains a need for an efficient boost-
                                                                         ing algorithm that directly incorporates a sparsity mechanism.
                                                                              Our main contribution is to propose a new, computation-
           1.  INTRODUCTION AND OUTLINE
                                                                         ally  efficient  boosting  algorithm,    called  RBoost  (short  for
                                                                         Regularized  Boost)  that  iteratively  solves  the  l  -regularized
AdaBoost [1] is used as a pattern classification algorithm in a                                                                 1
                                                                         loss minimization problem.  RBoost works in a similar fash-
wide variety of signal processing applications [2].  AdaBoost
                                                                         ion to AdaBoost except that it incorporates a simple, intuitive
constructs a powerful composite classifier as a weighted lin-
                                                                         mechanism for l  -regularization.  Moreover, with one simple
ear combination of a large set of base classifiers.        Although                          1
                                                                         change,  RBoost reverts to Adaboost.        Our empirical studies
the discriminant power of a single base classifier is usually
                                                                         show  that  RBoost  achieves  better  generalization  than  Ad-
weak, the composite classifier can achieve an acceptable clas-
                                                                         aBoost with sparser composite classifiers.
sification accuracy.
                                                                              In Section 2, we introduce the basic notation of the pattern
    In addition to classification accuracy, sparsity of the com-
                                                                         classification  problem  and  review  the  AdaBoost  algorithm.
posite classifier is a desirable attribute. By this we mean that
                                                                         We then present and analyze the RBoost algorithm in Section
relatively few base classifiers are assigned a nonzero weight
                                                                         3. The performance of RBoost is examined experimentally in
in the linear combination. A sparse classifier is easier to store,
                                                                         Section 4, followed by conclusions in Section 5.
process, and interpret and, most importantly, is less prone to
over fitting.   Through empirical studies, AdaBoost is known
to be generally resistant to over fitting, even for a large num-                               2.  PRELIMINARIES
ber of iterations [3, 4].  However, we will show that there are
additional gains to be made by adding a sparsity mechanism               In a typical binary classification problem, one is given train-
                                                                         ing data  S   =   {(x  , y )}m    (where x     ∈  Rp  are  instances
directly into the boosting algorithm.                                                          i  i   i=1            i
    Boosting algorithms can be interpreted as iterative gradi-           and yi   ∈   {-1, +1} are  corresponding  labels)  and  a  set  of
                                                                         base  classifiers  H    =  {h  }|H| .   A  base  classifier  h   ∈   H
ent descent procedures that minimize a loss function on the                                           j  j =1                        j
training data [5, 6, 7].   In many cases, these schemes add at           is a mapping from instances to possible labels,  hj         :  Rp →

most one new weight per iteration.       Hence early stopping of         {-1, +1}.     The performance of any classifier h under prob-
                                                                         ability  distribution w   =   {w  }m    is  measured  by  its  edge:
the  boosting  process  is  a  simple  method  to  ensure  sparsity                                       i  i=1
                                                                         edge(h, w) = m          w y h(x ), which is related to the error
[8].  It has been shown that early stopping of AdaBoost ap-                                  i=1    i i    i
proximately minimizes an exponential loss function subject               probability Perr (h) with respect to w on the training set by
to an l1 constraint on the coefficient vector [9]. This suggests          edge(h, w) = 1 - 2Perr (h)
that  sparsity  can  be  ensured  by  imposing  l  -regularization            Let h  (x)  =  sign(|H|     α  h  (x)) denote the composite
                                                   1                                c                 j =1  j  j
on  the  optimization  of  the  loss  function.  This  is  in  accord    classifier.   We assume that h  ∈  H  ?  -h  ∈  H and require
with results in compressed sensing,  where  l  -regularization           αj   ≥ 0, j  = 1, . . . , |H|.  Using this notation, AdaBoost can
                                                   1
has proved an effective approximation to an l0        sparsity con-      be specified as follows:
回复 支持 反对

使用道具 举报

51#
发表于 2010-10-21 12:33 | 只看该作者
有句话偶憋了三年了——请问胡伟武同学,你的16核龙芯呢?亮出来让大家伙瞧瞧??

首先我不知道你的工程院院士头衔是怎么来的,按照正常人的理解,这完全是不可能的事情,可是我们的院士就做到了,虽然是吹出来的。

2007年Intel刚刚推出双核CPU还没有多久,我们的胡伟武同学的急匆匆的跳出来嚷嚷要出16核芯片。您这是读书读傻了?还是**被门夹到了?

适当吹吹牛是每个男人都有的**病,可是您这吹得也太符合你的“院士”身份了吧?当时老牌的intel刚出双核,你丫的就吹16核,可是你就没想想2007年那时候的龙芯相当于intel那款芯片?连赛扬3都不如啊!猪!!!

你叉叉的到底是自己**进水了?还是自大到把全国人民都当做**看了?你浪费的可都是老百姓的血汗钱,M的,还好意思出来嚷嚷,我要是你早就一头撞死以谢天下了!读书读**里去了,你丢尽了知识分子的脸知道不?
**********************************************************************
一下是网络上的新闻稿:

CNET科技资讯网 2007年7月28日 北京报道(文/梁钦):中国工程院院士李国杰语出惊人:迄今为止也只有5%左右的人拥有PC,完全有可能重新考虑、设计更合理的计算机,来满足大众的真正需求。“我们完全有可能推倒重来!”
今天下午,中国电子学会计算机工程与应用分会在北京召开了学术报告会。会上,中国工程院院士、中科院计算所所长李国杰做了题为《21世纪初级的计算机技术》的学术报告。


李国杰在报告中指出,20世纪的信息技术走了一些弯路,并付出了沉重代价。100年来,全球GDP增加了18倍,但是能源消耗增加了上百倍。20世纪的信息技术也犯了同样的弊病。比如,在北美地区,能源消耗的10%用于信息技术;美国10%的费用投资在信息技术上。

21世纪不能再犯错误


李国杰表示,20世纪的计算机产业是被扭曲的,人们花很多费用仅仅是追求到了升级。而且计算机产品也越搞越复杂。“好像在全世界只有计算机产业是把事情越做越复杂。”


“在20世纪,整个产业追求和注重的是性能和购买成本,却忽视了可靠性、易用性、安全性等方面。对此,我感到痛心疾首”,李国杰表示。


“20世纪的计算机企业更加顾及眼前利益,前瞻性和技术研发实力甚至不如70年代。”讲到此,李国杰突然停了一下,他很严肃地表示,“每一个有良知的科技工作者都应该引导计算机产业良性发展。21世纪的计算机产业不能重犯20世纪的错误。”


计算所未来方向为LUSIA


李国杰指出,迄今为止也只有5%左右的人拥有PC,完全有可能重新考虑、设计更合理的计算机,来满足大众的真正需求。“我们完全有可能推倒重来!” 转自
接着,李国杰介绍到,21世纪初期中科院计算所技术的重要方向为“LUSIA”。 转

他解释说,L,指低成本,Low Cost;U,指方便性,Usability;S,指安全,Security;I,指智能化,Inte*igent;A,指可用性,Availability。

RIFD将大有发展


李国杰强调,低成本、惠及大众、易用、耐用是21世纪信息技术的发展方向。他举例说,“计算机和网络应该是21世纪的技术设施,就应该像水、点、煤气一样,不以盈利为目的。”

李国杰同时指出,RFID是Ubiquitous Computing的基础,21世纪将有大发展。

另外,李国杰还谈到,计算机模拟技术是当今最有价值的生产力。可是,目前国内对计算机模拟技术重视不够,比如长江三峡大坝和国家宏观经济模拟都是用微机做的。


HPC追求目标已变

李国杰还描述了未来HPC(超级计算机)的发展方向,他指出,HPC的追求的目标已经改变,从高性能到高生产力,以实际效能为目标,注重Time tu Solution,注重降低人的成本。


另外就是,平衡可扩展的体系结构,关注存储器的带宽和低延迟通信。 转自

李国杰指出,目前IBM等国际厂商都在研发运算速度为千万亿次的HPC。 转自

计算所将推个人HPC


据李国杰透露,中科院计算所和曙光正在积极研发个人HPC。到2007年,运算速度为1千亿次,内存达16GB,售价为2万元的个人HPC将面市;运算速度为1万亿次,内存达128GB,售价为5万元的个人HPC于2010年推出。

龙芯3将达16核


李国杰在会上还介绍了国产处理器龙芯的进展情况。他指出,最近将发布采用90纳米制程生产的、处理能力相当于奔腾4的龙芯2E处理器。


有着"龙芯之父"之称的龙芯项目组负责人胡伟武语出惊人,他表示,下一代"龙芯3号"(Godson 3)将为多核设计,并且具备16个核心,争取成为业内第一个16核处理器。"龙芯3号"2006年开始规划,2007年至2009年进入实施阶段,计划在2010年验收。
***********************************************************************
我说,你能不能不要在煽动那些年轻而盲目的愤青了?他们本来就只会YY,你这样做会还得他们以后连YY都没有兴趣了,更别谈爱国了。

最后突然想起了一个笑话:
有一天,院士来到山坡。这时山坡上有两条牛在吃草
母牛就对公牛说:“我要去躲躲!”
公牛问:“为什么?”
母牛答:“院士就爱吹牛B”
公牛说:“那好,你快去躲起来!”
母牛刚刚躲了没多大会儿,只见公牛也气喘吁吁的跑来了。于是就问公牛:“你跑来干什么?你又没有牛B!”
公牛说:“你不知道呀,院士吹完牛B,还要扯蛋
回复 支持 反对

使用道具 举报

50#
发表于 2010-10-21 12:33 | 只看该作者
[精彩] 龙芯要走“农村包围城市的道路”:让农民使用Linux

--------------------------------------------------------------------------------

http://www.chinaunix.net 作者:zhake  发表于:2009-06-27 08:46:08
【发表评论】【查看原文】【IT业界新闻与评论讨论区】【关闭】  

eNet硅谷动力消息 发布时间: 2005-04-25 11:37:13  

[注:人民大会堂光亮如新的会议厅里,曙光、海尔公司的高层敲打着IBM笔记本,大声发表演讲,意图很明显,要让农民使用连多数计算机专业白领都没学会的Linux操作系统,他们也相信,2010年,百元CPU、千元电脑使他们的企业更具竞争力…… ]  

农民即将用到的龙芯CPU廉价电脑,可能用不了Windows,只能抵御中等以下水平的黑客,他们最迟等到2010年才可以用上。4月18日,中国自主研发的“龙芯2号”CPU在北京人民大会堂亮相,身着鲜亮西装的与会者们,高声且热烈谈论,表达了上述观点。  

与龙芯历次展会一样,贴牌“龙2”标志的数字机顶盒、计算机、税控机、服务器静静躺在展位上,记者的镁光灯下,礼仪服务员如呵护新生儿般显得倍加小心。在少数人眼里,龙芯CPU的高科技产业链俨然形成。  

现在看来,专家学者们除了奔走呼吁使用国产Office软件外,CPU涉及国家安全,自主研发更显重要,当然,他们也多了一项“艰巨使命”。  

然而,在更多挑剔的批评家眼里,电脑城、电信机房、企业生产控制室里,虽然有IBM、Dell也有联想、浪潮的机器,但外壳无一差别的贴着Intel蓝色标志。  

事实上,ZF、企业采购在硬件选择上都在默认选择国外产品,从国外Oracle数据库到SAP、BEA管理软件产品,从IBM服务器到Dell办公电脑、爱普生打印机、HP办公一体机,这些产品涉及的国家安全同样重要。  

“我们在功能上足够用了。”这是来自研究人员的话语,在他们看来,与其拼速度,争性能,不如退而发展应用,抢占低端领域,于是,他们选择了农村。  

人民大会堂光亮如新的会议厅里,曙光、海尔公司的高层敲打着IBM笔记本,大声发表演讲,意图很明显,要让农民使用连多数计算机专业白领都没学会的Linux操作系统,他们也相信,2010年,百元CPU、千元电脑使他们的企业更具竞争力。
回复 支持 反对

使用道具 举报

49#
发表于 2010-10-21 12:31 | 只看该作者
现在是跟意法半导体关系密切,但真要断开了,我们一样可以找别的国家甚至自己国内的东西来做。
因为设计是我们自己做的---------------ST就是中国企业,龙芯的物理层的后段设计,龙芯2G的内置显示部分,存储地址访问,流片,完完全全是在中国做的,完全代表了中国的能力和水平
回复 支持 反对

使用道具 举报

48#
发表于 2010-10-21 12:28 | 只看该作者
有人用龙芯2E 666Mhz跑过debian下的pi包,经过简单优化以后可以43秒算出100万位pi
虽然与superpi存在计算方法不同,无法直接比较的问题-----------K10还比CORE快40%呢
回复 支持 反对

使用道具 举报

47#
发表于 2010-10-16 23:59 | 只看该作者
LZ看来是个半桶水的无脑FQ,哦不对,半桶水都没有,对CPU不懂还敢发这样的帖子
居然说中国的钢铁工业不行?你最好别到业内人士面前提这个,小心被专业人士拍死,你倒是说说还有啥钢中国钢厂炼不出来?十年前也许你还可以鄙视一下,现在?
至于发动机,轿车发动机是有差距,不过说到最重要的柴油机中国可一点也不差,道依茨、康明斯这些老牌柴油机公司都已经要找国内厂家买专利了
smilexp 发表于 2010-10-15 22:10

很多特殊钢种都是参考的外标配方自己试制,虽然对外宣传可以吹“达到或者超过xx标准”、“等效于某国xx牌号钢”,但实际性能如何就天知地知了。尤其是钢铁制品寿命都很长,没经过时间的考验,不好说。

另,既然是参考外标配方,那么人家就可以偷偷留一手,纸面上告诉你元素A加了%几,元素B加了%几,元素C加了%几,然后杂质D不高于%几、杂质E不高于%几。。。其一这些数据都是很笼统粗略的,其二你咋知道人家为了某种性能没在里面加有元素F?或者还有元素G?

PS,好吧说穿了就是照着仿。
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 注册

本版积分规则

广告投放或合作|网站地图|处罚通告|

GMT+8, 2025-2-2 21:56

Powered by Discuz! X3.4

© 2001-2017 POPPUR.

快速回复 返回顶部 返回列表