为什么比尔盖茨,霍金等名人,警告人们警惕人工智能

如题所述

人工智能很可能导致人类的永生或者灭绝,而这一切很可能在我们的有生之年发生。

我们对于历史的思考是线性的。当我们考虑未来35年的变化时,我们参照的是过去35年发生的事情。当我们考虑21世纪能产生的变化的时候,我们参考的是20世纪发生的变化。这就好像1750年的老王觉得1500年的小李在1750年能被吓尿一样。线性思考是本能的,但是但是考虑未来的时候我们应该指数地思考。一个聪明人不会把过去35年的发展作为未来35年的参考,而是会看到当下的发展速度,这样预测的会更准确一点。当然这样还是不够准确,想要更准确,你要想象发展的速度会越来越快。

近期的历史很可能对人产生误导。首先,即使是坡度很高的指数曲线,只要你截取的部分够短,看起来也是很线性的,就好像你截取圆周的很小一块,看上去就是和直线差不多。其次,指数增长不是平滑统一的,发展常常遵循S曲线。

个人经验使得我们对于未来预期过于死板。我们通过自身的经验来产生世界观,而经验把发展的速度烙印在了我们脑中——“发展就是这么个速度的。”我们还会受限于自己的想象力,因为想象力通过过去的经验来组成对未来的预测——但是我们知道的东西是不足以帮助我们预测未来的。当我们听到一个和我们经验相违背的对于未来的预测时,我们就会觉得这个预测偏了。如果我现在跟你说你可以活到150岁,250岁,甚至会永生,你是不是觉得我在扯淡——“自古以来,所有人都是会死的。”是的,过去从来没有人永生过,但是飞机发明之前也没有人坐过飞机呀。

人类对于地球的统治教给我们一个道理——智能就是力量。也就是说,一个超人工智能,一旦被创造出来,将是地球有史以来最强大的东西,而所有生物,包括人类,都只能屈居其下——而这一切,有可能在未来几十年就发生。

温馨提示:答案为网友推荐,仅供参考
第1个回答  2017-06-04
就想当初的基因技术,克隆技术,还有当初的蒸汽机革命,电气化革命,核威胁,冷战,人类有害怕恐惧的本能 因为如果不加以控制和约束真的能带来灾难性后果 如克隆技术 会带来伦理问题,核武器可能产生核冬天 基因武器可能轻易让人类灭亡还有他们所说的人工智能 因为计算机单个能力超人类几条街 如果综合能力研究出人工智能很快就能超越人类 这个很恐怖 不知道会发生什么?也许这回是人类最后一次技术革命了,所以马斯克在做人机大脑借口,和限制政策 ,也就是是我们需要认真应对,但技术的发展从来不是人为的停留的。本回答被网友采纳
相似回答