钢铁侠埃隆·马斯克曾撰文称:“我们需要万分警惕人工智能,它们比核武器更加危险!”
霍金则在接受英国广播公司的采访时表示,人工智能会迅速演变并超过人类,他的理由很直白,“一旦经过人类的开发,人工智能将会自行发展,以加速度重新设计自己”。
为何马斯克和霍金会对人工智能如此的恐惧?
因为历史可以告诉未来。
20万年前,智人登上历史舞台,尼安德特人面临的命运只有灭绝。
1492年哥伦布登上美洲大陆,美洲大陆的原住民遭受了血腥的屠杀。
众多的历史事实告诉我们,人类每到一个进化节点,进化后的种族会毫不留情地灭绝自己的创造者。
未来学家雷蒙德·库兹韦尔认为“奇点时刻”到来将终结纯粹的人类文明。
所谓“奇点时刻”指电脑智能与人脑智能兼容的那个神妙时刻。
他预言“2045年”将是人类又一个“奇点时刻”
“强人工智能”时代到来,是带领人类进入更美好的未来,还是丢进历史的垃圾堆?
强人工智能时代到来,带来的利好消息是:
通俗点说,强人工智能时代将创造出:金刚狼,钢铁侠那些科幻片中的超级人类。
一个非常强大新的物种,拥有非常强大的能力,将带来:财富自由(绝对贫困不再存在)时间自由(青春永驻,永生不老)空间自由(超速旅行)
强人工智能带来的坏消息是:由于强人工智能具有自主设计,自主进化的能力,AI可能会自主进化,由于AI强大的快速迭代能力,进化速度可能远远大于“新智能人”(人机融合)的进化速度,或许会出现《黑客帝国》中那种毁灭人类超级计算机智能。
因为纯粹由AI进化出来的智能,太过强大,新智能人彻底被边缘化,没有用的物种迟早都是要被淘汰掉的。