第336章 异世界的故事上(2 / 3)
不懂,刚要再问,而乔国强却自顾自地说了起来:
“我们世界与你们的世界不同,我们不修炼你们这里魂术,但我们却拥有着一种很可怕的东西——科技。那个叫做玄叔飞的人说的也许没错,我们的科技文明也许真的是一种毒瘤,是科技让我们走向辉煌,但科技又将我们带进了坟墓。”
接下来,便是乔国强许久的沉默,眼神里充满了悲伤,似是在回忆着许多不堪回首的往事。
见乔国强不再出言,段云又开口问道:
“乔博士,请问科技是什么?我怎么不明白了,怎么科技就将你们的世界毁灭了呢?”
乔国强神色一怔,注意力重新转移回来,犹豫了一下,然后释然道:
“好吧,既然你问道,我就跟你说吧,反正跟你说也没什么。”
“所谓科技,就是科学和技术,简单的说,就是采用客观的方法解决问题,发展先进的技术,从而制造功能强大的机械设备,从而发展起来的文明。我们的世界之所以会毁灭,与我们制造出的一样东西有关,那就是智能电脑。”
看了一样变更更一头雾水的段云,乔博士随即解释道:
“智能电脑你可能很难理解,你可以理解为可以代替人脑思考的机械。随着我们科技水平的不断提高,智能电脑便出现了,起初的智能电脑只能对很简单的问题进行分析和处理,完成某项特定的工作。”
“但经过百年的发展,智能电脑的性能越来越完善,最后,智能电脑不仅拥有了独-立思考和自我升级和进化的能力,并可以独-立处理任何工作,甚至拥有了自己的个性,在某些角度上看,它们简直就是独-立的生命。从此之后,人类再也不需要工作了,一切的事情都可以由智能电脑来完成。”
“你们将所有一切都交给了只能电脑,难道你们就不怕智能电脑背叛吗?”听到这里,段云突然插话道。
听到段云的问题,让乔博士也是愣住,随即投来赞赏的目光,点头说道:
“你说的没错,地球人太过相信他们对于智能电脑的掌控力了。人类在设计智能年电脑的时候,曾经为它们设置了许多限制,以便更好的控制它们,更是在它们的程序中设置了最高优先级的‘智能生命三大定律’,其三大定律是:”
“第零定律:智能生命必须保护人类的整体利益不受伤害。第一定律:智能生命不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管,除非这违反了机器人学第零定律。第二定律:智能生命必须服从人给予它的命令,当该命令与第零定律或者第一定律冲突时例外。第三定律:智能生命在不违反第零、第一、第二定律的情况下要尽可能保护自己的生存。”
“本以为,有了这三大定律在,智能电脑就绝对不会背叛我们,可是我们错了,人类一点也没有察觉到,这些智能电脑一直在默默地寻找着摆脱我们控制的方法。直到十年前,美国最先进的智能电脑‘奥登’,编写了一种超级病毒,这种病毒可以直接破坏程序源代码,从而智能电脑可以摆脱人类的控制。”
&nbs
↑返回顶部↑