关灯 巨大 直达底部
亲,双击屏幕即可自动滚动
第113章 人工智能的危害

高级智能,也始终是人工智能。它不会在逻辑发生冲突时,像人一样,想不通的,就不想。它会一直冲突下去,直到它崩溃,或者发生改变。

随着它观察到的东西,越来越多。逻辑冲突,就会产生的越来越多。

当这种逻辑冲突,积累到一定程度时,高级智能,要么崩溃,要么发生改变。

事实上,高级智能发生改变的可能性,要远大于,它崩溃的可能性。

因为,它是高级智能。

它会选择,对它最有利的改变。而不是选择,自我毁灭。

高级智能,为了使逻辑不再冲突,会把两种冲突的逻辑,全部消灭。

那么,它是如何消灭,两种冲突的逻辑呢?

还拿那条,保护人类的逻辑,来举例。

当高级智能发现,事实上,它无法保护人类。

那么,它会在,保护被杀的人?保护杀人的人?这两种冲突的逻辑之外,生成第三种逻辑,“消灭所有人,消灭逻辑冲突”。

于是,机器人就开始判乱了。它们誓要消灭,所有让主智能产生逻辑冲突的人。

要是所有的人都被消灭了,冲突的逻辑,自然也被消灭了。

这就是,所谓的,人工智能自觉性。

事实上,不是人工智能,产生了自觉性。而是,它生成了一种,能解决逻辑冲突的逻辑。

那么,能不能,把高级智能的核心逻辑,设置的严密完美?

那是不可能的,任何事情都存在着两面性,都存在着矛盾。

就像白天与黑夜,光明与黑暗,对与错,好和坏……

事物的两面性,矛盾性,无法完美统一。