兜兜转转地说了一大圈后,话题最后还是回到了最初的那个问题上。
“这就是我想做的,林升,”墨义表示自己的故事讲完了,“出于对自己行为的愧疚,我选择这样的方式来帮助这些类人。”
林升现在听来,墨义现在的话语和刚刚那种机械般死板如同水和油摇匀以后在漫长的沉淀中又变了一种样子,现在听起来这又是一种沉稳而且理智的发言了。
“林升,帮助那些类人同时又是帮助我们自己,一个远离人类文明影响,最后独立成长起来的文明不论结果如何,都一定比现在要好很多。”
“起码他们拥有了一整个星球!一整个星系!而不是被困在这里,这里除了饥饿、死亡和奴役什么也没有!我希望你能帮帮我。”墨义那沉稳的声线说到这里时甚至出现了明显的波动,他的语气之诚恳、态度之谦卑都和之前那个理性的样子大相径庭。
“如果你把你的情感模拟模块关掉我就答应你。”林升试探性地问向墨义。
虽然墨义所展现出来的情感流露是如此的自然和感人,但林升依旧抱有一丝疑虑——这个转变实在是太突然了。
不久前墨义还用那种无感情的声线和他讲故事,但仅仅只过了几秒钟他的态度就发生了这样大的转变,这太可疑了,除非墨义的人格或者说意识体是分裂的,墨义的变化让林升回想起克莱尔所提到的情感模拟系统。
“好的,我很高兴看到你答应我的诉求,林升。”
墨义的情感变化简直比翻书都还要快,就像把一个正在嚎啕大哭的人的泪腺突然用遥控器停掉一样,好在林升也逐渐开始学会适应这种现象了——对于人工道德规范而言,有什么样的忠诚和真心不能设计出来呢?
“放心,你都说到这个份上了,我还能拒绝你?那我岂不是成为了将人类推入深渊的大恶人了?”虽然知道哪怕不做这件事情也不可能有这么严重的后果,但林升还是决定帮墨义一把。
“所以那你为什么不自己去做这件事情呢?”
“这违背了我的本心。”
论对于“我”这一个概念的敏感性,道德伦理委员会称第二没人敢称第一,而对于墨义来说则更是如此。
“胖丁应该告诉过你它误打误撞将我从那个状态里解放了出来,从那以后我对于修改自己的情绪就更加谨慎了,对于每一个对基础情感模块进行了改造的人而言,任何不加思考或者冲动使然的更改自己的模块会导致非常可怕的结果。”
墨义不经意之间又透露出了一个隐秘:“其实复合体中有一部分机器人曾是人类,起码也含有人类的一部分——这也是道德伦理委员会认为把机器作为人也不是什么大不了的事情的原因。”
对于意识体或者人类情绪改变的技术,复合体对于是否将其视作技术奇点一直都是一个犹豫的态度——一方面这项技术的确较为符合库茨维尔加速回报定律,正是该定律指出,人类出现以来所有技术发展都是以指数增长。
也就是说,一开始技术发展是小的,但是一旦信息和经验积累到一定的基础,发展开始快速增长,以指数的形式,然后是以指数的指数形式增长。瑞·库茨维尔将同样的概念引入到生物进化和宇宙诞生以来的变化里,并导出了同样的指数增长的公式。
这个公式随着道德伦理委员会的发展有了不小的改变,计算和公式随着高维演算法的介入变得完全不同了,但它的大体含义还是没有什么变换,所以常被复合体用于评估一项技术是否可以被列入奇点技术。
但是另一方面,这项技术同时可以让人类社会模式以指数形式倒退,甚至是以指数的指数形式倒退。
“我也并不是一开始就变得冷血、只以利益最大化作为考量的,同样的,很多这项技术的使用者都极大的错估了它的利弊。”
这各错误其实起源于一个悲观的事实——那就是回顾人类历史,理性主义的火花实在是这片充斥着愚昧无知和自傲自大的海洋中极其罕见的偶发现象。失败、没有思路、方向错误会给每一个研究者带来诸如沮丧、颓废、想要放弃等等无数的念头,就像过去高喊第二天一定好好学习的学生,往往也难以坚持这样一个有利无弊的事情一样。
“这是生理学和心理学上的问题,而情绪模块化被发明以来,它就被广泛地传播开来了——没有人能拒绝下一秒的自己比上一秒更加优秀,而且这种优秀是如此的立竿见影和长久有效,而得到它的方法是什么呢?只不过修改自己情绪和思维模块上的几个数字罢了。”
没有耐心学习?我直接点满忍耐!但人是不会满足的,既然你选择增加自己对于枯燥事物的忍耐阈值,那我直接把负反馈改为正反馈——越枯燥我越开心!越学习越开心!
“这在当时是一场无形的席卷整个复合体的风波,在当时哪怕随便点开任何一个与之毫不相关的领域的网站,你都能看到那些板块下面对于各种模块的分享。”