07(6 / 7)

加入书签

大多数的女性和许多男性。我想,如果不是特别强壮魁梧的人,实在很难做到这一点。”根据当初迪玛契科所作的简报,贝莱已经知道这桩机杀案不属于这一类,可是他又如何肯定迪玛契科自己并未受到误导?

丹尼尔说:“其实任何人类都不可能做到。”

“为什么?”

“不用说,以利亚伙伴,你很清楚机器人骨子里都是金属之躯,比人类的骨胳要坚固得多。而我们的行动要比人类更快、更强而有力,而且受到更精密的控制。机器人学第三法则强调‘机器人必须保护自己’,凡是人类作出的攻击,我们都可以轻易防卫;即使再强壮的人,我们都可以将他制住。此外,机器人也不太可能遭到出其不意的袭击,我们随时随地都在注意身边的人类,否则就无从发挥我们的功能。”

贝莱说:“得了吧,丹尼尔。第三法则其实是这么说的,‘在不违背第一及第二法则的情况下,机器人必须保护自己。’而第二法则是说,‘除非违背第一法则,机器人必须服从人类的命令。’第一法则的内容则是,‘机器人不得伤害人类,或因不作为而使人类受到伤害。’所以人类能够命令机器人自我毁灭——然后那机器人就会使尽全力打碎自己的头颅。而如果人类向机器人发动攻击,机器人自卫的话便会伤到人类,那就违背第一法则了。”

丹尼尔说:“我猜,你想到的都是地球机器人。奥罗拉——或任何太空族世界——对机器人的重视都超过地球,而且相较之下,太空族世界的机器人一般而言都更复杂、更能干,同时更有价值。所以在太空族世界上,第三法则相对于第二法则的强度也大大超过地球上的情形。如果接到自毁的命令,机器人会提出质疑,除非听到确实正当的原因——为了化解眼前一个明显的危机——机器人才会执行这个命令。至于防卫人类的攻击,这并不会违背第一法则,因为奥罗拉的机器人都有很好的身手,足以在不伤害人类的前提下将他制住。”

“那么,假设有人坚决宣称,除非机器人自我毁灭,否则遭到毁灭的就是他自己——他这个人类,这么一来,机器人会不会自我毁灭呢?”

“奥罗拉的机器人一定会质疑这样的说法,因为口说无凭,那个人必须提出明显的证据来。”

“难道他不可能作出巧妙的安排,让机器人觉得这个人的确陷入绝境?你之所以排除掉智商太低、年纪太小或经验不足的人,不正是这个原因吗?”

丹尼尔说:“不,以利亚伙伴,答案是否定的。”

“我的推理有错吗?”

“没有。”

“那么我就错在假设他受到了实质的损伤。事实上,他并未受到任何实质损伤,对不对?”

“是的,以利亚伙伴。”

(贝莱心想:这意味着迪玛契科的情报正确无误。)

“所以说,丹尼尔,詹德是心智受到了损伤。哈,机困!彻底且不可逆的机困!”

“机困?”

“机器人困阻的简称,就是正子径路的功能遭到永久性阻断。”

“奥罗拉人并不用‘机困’这种说法,以利亚伙伴。”

“你们怎么说呢?”

“我们称之为‘心智冻结’。”

“也可以,反正是描述同一种现象。”

“以利亚伙伴,我劝你最好还是使用我们的说法,否则奥罗拉人会听不懂你在说什么,交谈会因而无端受阻。不久之前,你才提到不同的字眼会造成不同的感受。”

“很好,我会改用‘心智冻结’——这种事会不会自动发生?”

“会,可是机器人学家说,发生的几率是无限小。我身为人形机器人,可以提供你第一手资料

↑返回顶部↑

书页/目录