(2/2)

艾斯卡笑了笑:“我来帮你处理家务。”

罗克发现卡特似笑非笑地望着自己,忽然有些羞耻。他的生活做派一向粗糙,艾斯卡完全能够胜任照顾他的工作,可把警用助手当成免费保姆未免有点不恰当。

他决定跳过这个话题。

“等一等,你刚才说要把我植入艾斯卡的核心程序是什么意思?”

“就是把你的基因生物信息作为最高权限者的识别数据,”卡特说,“为了保证数据的完整和实时性,我和奥尔文商量的结果是,需要在你的身体里,准确地说是手臂上植入一个微型读取器来向艾斯卡发送你身体数据的变化。”

罗克对这个方法心存疑虑,倒不是他害怕在自己体内放入什么东西,而是这个方法听起来似乎和莫里斯说过的基因收集十分相似。他对军方的银弓计划不只是反感,更多的还有厌恶。退一步说,如果自己的基因信息可以毫无保留地被读取,那是不是也有可能制造出另一个“罗克·布雷恩”?

卡特看出了他的顾虑,明白他身为警察天然具有的警惕和多疑,于是说:“你可以慢慢考虑,反正艾斯卡现在处于无人监管的状态,是一个通常意义上自由的人。当然,程序还是会规范他的行为,不让他逾越法律规则,所以即使没有设立最高权限的监督者也不会有太大问题。不过,不能排除存在的风险,一旦他真的失去控制,最终将面临的一定是被彻底销毁。”

“你的意思是,赫菲尔斯公司最终还是有办法找到他?”

回答这个问题的是奥尔文,他说:“这个销毁过程并非人为控制。设计初期,很多人对人工智能的发展存在忧虑,担心量子计算机惊人的迭代速度会过早产生自我意识,在人类还没有准备好之前造成意想不到的灾难。因此设计艾斯卡时,我们设置了一个自毁程序。这个程序被称为理性之钟,它的内容非常简单,只是判断人工智能的决定是否符合当前事件的法律、道德标准和最优方案。你可能会说,有些事进退两难,很难决定对错,所以系统设置了数据集的数量,不以单个事件作为判断对错的标准。如果艾斯卡在决策时积累了太多错误选择,比如他选择杀人或者严重违反法律、从事犯罪,那么理性之钟就会进入倒计时自毁。即使开始后,如果他能重新回到正途,销毁程序会相应减缓。”

“这个程序还在吗?”

“是的,自毁程序不可移除。”

“这么说,如果我成为他的控制者,就可以高于理性之钟对他的道德判断?”罗克问,“那他经常违反规则擅自查案,偷看别人的信息,和我一起从警局逃出来的行为算不算错误抉择?”

“这些都只是小事。”奥尔文说,“我们提防的一直是人类和未来生命之间如何相处的难题,人工智能未必拥有比人类更高的智慧,但一定具有更快的进化过程和学习能力。人类需要通过十几年乃至几十年学习的知识,对人工智能来说不过是一瞬间。人类很难同时成为多个领域的专家,人工智能却能既是科学家、医生、律师、经济学家,又精通文学、艺术和哲学。布雷恩警官,我们现在的行为是在冒险,而我和卡特认为把勇者之剑交给你是最恰当的选择。”

信任的仪式

罗克决定再多考虑一下。

无论对自己还是对艾斯卡来说,这都是人生中极其重要的事。