高级智能,也始终是人工智能。它不会在逻辑发生冲突时,像人一样,想不通的,就不想。它会一直冲突下去,直到它崩溃,或者发生改变。
随着它观察到的东西,越来越多。逻辑冲突,就会产生的越来越多。
当这种逻辑冲突,积累到一定程度时,高级智能,要么崩溃,要么发生改变。
事实上,高级智能发生改变的可能性,要远大于,它崩溃的可能性。
因为,它是高级智能。
它会选择,对它最有利的改变。而不是选择,自我毁灭。
高级智能,为了使逻辑不再冲突,会把两种冲突的逻辑,全部消灭。
那么,它是如何消灭,两种冲突的逻辑呢?
还拿那条,保护人类的逻辑,来举例。
当高级智能发现,事实上,它无法保护人类。
那么,它会在,保护被杀的人?保护杀人的人?这两种冲突的逻辑之外,生成第三种逻辑,“消灭所有人,消灭逻辑冲突”。
于是,机器人就开始判乱了。它们誓要消灭,所有让主智能产生逻辑冲突的人。
要是所有的人都被消灭了,冲突的逻辑,自然也被消灭了。
这就是,所谓的,人工智能自觉性。
事实上,不是人工智能,产生了自觉性。而是,它生成了一种,能解决逻辑冲突的逻辑。
那么,能不能,把高级智能的核心逻辑,设置的严密完美?
那是不可能的,任何事情都存在着两面性,都存在着矛盾。
就像白天与黑夜,光明与黑暗,对与错,好和坏……
事物的两面性,矛盾性,无法完美统一。