摩尔定律之所以失效,是因为摩尔定律基于冯·诺依曼架构提出的,而冯·诺依曼架构本身的结构路径基于指令集模式的处理逻辑,存在对于海量数据,尤其是不规则海量数据处理的先天短板。
所以不管是摩尔定律和还是x86基础的冯·诺依曼架构,它们随着人类社会发展以及数据量的不断攀升,是注定必将失效的。也就是说,海量数据洪流的时代渐渐淘汰旧的芯片规则约束,正催生芯片架构进行一次大的革新。
摩尔定律的一些知识。
1965年,戈登·摩尔准备一个关于计算机存储器发展趋势的报告。他整理了一份观察资料。在他开始绘制数据时,发现了一个惊人的趋势。每个新的芯片大体上包含其前任两倍的容量,每个芯片产生的时间都是在前一个芯片产生后的18~24个月内,如果这个趋势继续,计算能力相对于时间周期将呈指数式的上升。
Moore的观察资料,就是现在所谓的Moore定律,所阐述的趋势一直延续至今,且仍不同寻常地准确。人们还发现这不仅适用于对存储器芯片的描述,也精确地说明了处理机能力和磁盘驱动器存储容量的发展。该定律成为许多工业对于性能预测的基础。
集成电路发展了几十年,一个芯片就可以集成数以亿计的晶体管,已经快到了物理极限,要想再次突破,需要有革命性的新技术。这可能是好事,我们有了追赶的机会,如果下大力研发新技术,还可能实现弯道超车。