这和现实无关,是科幻的讨论。

虽然觉得现在的 AI 界距离强人工智能的距离,可能有物理学界距离大统一理论的距离一样大。但是从幻想来说,自己是无比渴望那样的世界的,人类脱离肉体的束缚,成为更高层次的生命。

为了做到这一步,得需要 AI 取代人类,比如说像《Matrix》乃至最近的《守望先锋》1 里面的一场战争,这是我们不愿意看到的,没有冲突主动发生取代更好,Make love, not war 嘛。

在科幻作品中,一个生物人变成 AI 的过程常常是这样的:复制自己的记忆到电脑上,然后再杀死肉体的人。这样做法的缺点显而易见——各种意义上这都是自杀。 从外界角度上来说,意识就是信息,一个完全相同的意识取代了原先的意识,可以严格等价为这个意识就是原先的意识。

我们来想想吧,如果每天晚上你睡觉的时候把你的脑子拿出来复制,然后把你杀死,换成一个新的「你」,每天醒来你依旧是你。

更激进一点,我们做个假设,时间不是连续的,而是像动画一样,分成微小的帧的。这种情况下,无法证明上一帧的自己和这一帧的自己的联系——如果每个帧间,有个神把你的脑子拿出来复制,杀死你以后替换呢?

所以从外部角度,意识上传以后的人和原本是可以等价的,但是从人的本身来说,执行近似自杀的意识上传,心理是有障碍的,更难办的是,这种障碍会投射到外界,使得原本等价的两个意识完全不等价。这种突然的变化,可能导致这个人在社会关系上的死亡。

为了解决这个问题,我们来看上面做的“时间不是连续”的假设,虽然这两个假设都不符合奥卡姆剃刀,但可以给我们一些启发。

如果不连续,有可能会出现自我认同的障碍,那么是不是说明,自我认同的关键在于连续

想一想,你身体大多数的细胞一直在更新,但你会觉得这身体不是自己的吗?而是由饭菜猪肉牛肉……构成的吗?如果说因为脑细胞是不会更新的,所以我认同我脑细胞所在的身体,那么再想想:如果把自己的脑袋割下来,迅速移植到另一个人脖子上,你会认同这个身体是你自己的吗?

这就是一个忒修斯之船的问题了,一艘船过了很多年以后,每个零件都不是出厂时的原装货,大家却仍然认为这是原先的那艘船,原因就是更换零件是连续的一个过程,至少在人心中是这样的。

所以科幻作品中,进化成数字生命所产生的自我认同问题,就有了比较完美的解答了。

我们给人植入一种「上传器」,以很长的周期慢慢取代大脑的功能,一开始从脑干、小脑等无关思维活动的地方开始接管,然后慢慢地开始向大脑蔓延。直到数年后真正取代整个大脑以后,这个人就成为了数字生命了。

在每个时刻,他都是连贯的,都是上一刻的同一个人,绝对不会有自我认知的问题:「难道芯片取代了 10% 的大脑活动,我就不是我了吗?」「难道取代了 50% 的大脑活动,我就不是我了吗?和 49% 没有本质的区别呀!」

同时,在很长的周期下进行的蜕变,也能让人的社会关系不至于破裂,可以和家人朋友一直保持联系,对于他人来说,这个人也是连续的。

而且这个过程至少在前期是可逆的,是有后悔药可以吃的,虽然会对脑可能有影响,但是总比不可逆的死亡要好。

你看,意识上船的优点那么多,不要三四千,不要四五千,只要九…… (被拖走

当然这个点子那么棒,肯定无数人想到了,我看的科幻小说少,没见到类似的情节,所以写下来凑一篇文章。

  1. 吐槽一下,守望先锋里面的智械是我见过最战五渣的叛乱 AI。