第四百二十八章:一百二十万亿次(3 / 4)

道目前世面上流出的最好的商业芯片,在解开频率限制达到超频后,其单精度浮点运算能力在十万亿次左右。

即便是有技术储备,也不会高太多。

而且超频运算也是有着很大缺点的,除了耗能增加外,还容易加速计算机硬件的老化外,还容易“电子迁移”现象。

虽然“电子迁移”现象并非立刻就损坏芯片,它对芯片的损坏是一个缓慢的过程。

但每一次的电子迁移都会或多或少会降低cpu的寿命。

同时,在超频的情况下,系统死机或发生错误可能性会增加。

如果说一块cpu正常使用可以运行十年,超频运算情况下,cpu使用寿命能有一年就很不错了。

盯着显示屏上的数字,各国都忍不住在心里揣测这种‘碳基芯片’是否能够超频运行。

很显然的是,眼下这个主播进行的测试都是基础性测试。

度量测算属于单精度浮点运算中的一种,属于最简单的模式。

如果要开放超频运算的话,使用的方法肯定会更加复杂和细致,那样才能最大限度的发挥出芯片的性能。

但想到这个,这些专家们脑海中又打了个寒颤。

光是普通的测试就能达到一百多万亿次每秒的运算速度,如果还能解开限制进行超频的话,其性能会有多恐怖?

一百五十万亿次?一百八十万亿次?还是两百万亿次?或者更高?

从硅基芯片的性能来看,任何一代已经推出并且商业话使用的芯片在芯片频率的设定方面都是比较保守的。

绝大部分新架构的cpu刚出来的时候,只要性能比自家上代/竞争对手稍有优势就可以,频率可以设定的比较保守。

但在制程工艺允许、功耗允许的前提下,其超频幅度可能会非常大。

例如intel基于roe架构的core

duo,因为同频性能比自家的奔腾4、amd的k10都强不少。

因此刚上市时,低端的e6300只有1.86

ghz,就算高端的e6700也不过2.66

而作为对比,intel自家前代的奔腾4同等制程工艺则是有3.73ghz的型号,只要主板支持,core

duo系列超3.6g并不算太难。

对于e6700来说,频率提高幅度达到了35,而如果是e6300的话,则是高达93。

不过那时候的cpu因为锁倍频以及主板等其他配件的限制,对于fsb频率为1066的e6300来说,超93意味着fsb要爬到2000这个指数还是有点难度。

但超3ghz一般还是可以的,就算这样,频率提升幅度也有60多了。

如果按照这种数据来进行代入眼前的碳基芯片,高达百分之九十三的超频功率能让这块芯片的浮点运算能力轻轻松松的突破两百万亿次每秒。

如果是放到10年代,妥妥的一枚芯片就是一台超级计算机。

甚至不少超级计算机都还不一定有这枚小小的芯片性能强大。

这个推测,让各国专家和韩元一样,情不自禁的咽下了唾沫,被吓到了。

如果按照这种数据来进行计算。

硅基芯片真的会被扫进垃圾桶的。

尽管目前这个主播制造的还只是电脑使用的芯片,但电脑和手机,以及其他设备使用的芯片其制造原理大体是互通的。

只要有一个研发出来了,其他的在资金的涌入下,也很快就能得到解决。

创造一种东西很困难,但要模仿和对其改装,还是要容易不少的。

计算机室内,韩元咽了口空气後