3A电子书 > 科幻电子书 > 冰人幽灵 >

第103章

冰人幽灵-第103章

小说: 冰人幽灵 字数: 每页4000字

按键盘上方向键 ← 或 → 可快速上下翻页,按键盘上的 Enter 键可回到本书目录页,按键盘上方向键 ↑ 可回到本页顶部!
————未阅读完?加入书签已便下次继续阅读!



       的“动机”。
       问:
       现在的机器人还没有任何“动机”,但是将来的那些比人还聪明的机器人就
       不同了。到那时候,科学作家艾萨克&;#183;阿西莫夫于1950年在其著作《我,机器人》
       中提出的著名的为我们后来人奉为圭臬的机器人三定律就可能会过时了。机器人
       三定律是:第一定律,机器人不得伤害人,也不得在人受到伤害时袖手旁观;第
       二定律,机器人应服从人的一切命令,但不得违反第一定律;第三定律,机器人
       应保护自身的安全,但不得违反第一、第二定律。这三个定律更有可能被机器人
       单方面撕毁协议。因为一旦机器人与人一样有了感情、思维、推理和智慧,甚至
       比人更聪明,就会比人更工于算计和自私。这样,下面的一个在激烈竞争时代的
       流行故事就得改写。
       原先的版本是两个人在森林里走路,遇到了一只老虎。一个蹲下来系鞋带,
       旁边的人说这时候系鞋带还有什么用啊?系鞋带者说,我系好鞋带只要能跑过你
       就有用了。但是机器人与人在森林里散步,也遇到了一只老虎。机器人就会思考,
       什么机器人不得伤害人,见鬼去吧!在利益面前,先保护自我。机器人也不用系
       鞋带,它首先就会把人一把揪住,送到虎口,说,你先凑合着吃这个人吧,我再
       给你找个更可口的,说完就自己先逃走了。
       答:
       这种说法存在一个误区:认为越聪明的人越自私,这是毫无根据的。在我们
       日常生活中也得不出这样的“规律”,那些最自私的人恰恰不大聪明,不知道与
       人合作才能获得更大的利益。生物进化的自然选择规律使得生物都是自私的基因
       的表现,所以一切生物的本性都是一样自私的,尽管如此,生物的智力却有天壤
       之别,这也说明自私与智力并不相关。
       机器人三定律这个说法不恰当,这三条不是自然界的“定律”,也不是机器
       人与人签订的“协议”,而是我们制造机器人时给机器人规定的行为准则,也可
       以看成是一组价值观。当然这个准则只是一般而论,如果有人想设计机器人用于
       战争,恐怕就要改成“不伤害自己人,要伤害敌人”之类了。这类机器人非常危
       险,设计者当然会加上多重的安全措施,以免它掉转枪口打自己,正如对军人要
       训练他绝对服从命令一样。
       机器人也会有某种程度的“自私”作为学习时的评价准则,例如尽量节约能
       量。但是与人类比较起来,其自私的程度会逊色很多。这样估计有几条理由:第
       一,人是进化的产物,是自私的基因的表现,其生存的意义就是生存本身,而机
       器人是人是人设计的,其生存的意义是为人而存在的,是获得更多的知识。第二,
       人是动物,受到很多生物学的制约,但是机器人则不存在这种制约。例如,生命
       属于人只有一次,所以人(以及一切动物)都会尽最大努力保护自己的生命,
       “我”是唯一的;但对于机器人而言,这些约束却不存在,机器可以自由的复制
       自己,就像孙悟空拔一把毫毛变出成千上万的自己,到任务完成后再合成一个,
       把各自学到的知识收集到一起;人的头脑不可能和****分离,机器人却可以把脑
       袋放在某个计算机里,通过宽带网控制现场的身体,身体“遇难”了,再换一个
       就是,如同我们换一件衣服,甚至可以根据不同的任务选用不同结构的“身体”;
       机器人的“我”的概念与人类有很大不同,人类的“我”是一生不变的,不可分
       合的,机器人的“我”可以是根据任务临时组建的,由于机器人的知识可以共享,
       所有各个机器人获得的新知识都放在一个巨大的共同知识库中,当需要完成特定
       任务时,可以按照任务需要从知识库中选取知识和经历,组建一个机器人,任务
       完成后把所学的新知识、新经验加入知识库,“我”到此终结。这样可以随时产
       生,随时消亡的“我”,当然没有太自私的理由。
       所以那个老虎的故事就没什么道理,机器人的身体是金属和塑料制品,老虎
       不会吃,没有理由逃走;即使损坏了,也可以很方便的修复或更换;而它如果想
       出好方法来救人,就成为可贵的知识,被载入知识库,使自己的一部分得到永生,
       何乐而不为。
       问:
       如果智能机器人不受人类控制了,怎么办?它们有可能会篡夺人类在地球上
       的统治地位,把人类也当成一般的动物看待。
       答:
       “控制”这个词可以从不同层面上理解。拿空调机做例子,如果一个空调机
       没有任何自动控制功能,只有一个开关,我们觉得热了就把空调打开,感到冷了
       就关上,空调完全在我们的“控制”之下,但这样的空调用起来是很麻烦的。我
       们现在使用的空调都有温度自动控制功能,温度高了自动打开制冷,温度低了自
       动关机,自动维持我们设定的温度。看起来“人类控制”少了,但这样的空调我
       们觉得控制更方便了。如果空调机更聪明,能听懂我们的话,我们只要说“这屋
       里太热了”,它就会自动设定温度,****我们的要求,“人类控制”更小,我们
       却更省事了。如果这个空调机不管我们的感受,随意设定温度,弄得我们很不舒
       服,我们会觉得这台空调坏了,需要找人修理。问题在于,空调机的“目的”如
       果不是为了使人舒适,又会是什么?是为了让空调机自己“舒适”吗?为了弄清
       这个问题,先得明白人为什么会有“舒适”的感觉。人是恒温动物,过高或过低
       的温度会使人的功能失调或消耗过大的能量,不舒服的感觉可以使人能够避开不
       利环境,保护自己功能正常和节省能量。空调机不是恒温动物,其制造材料可以
       在很宽的温度范围之内不会损坏,所以空调机自己“舒适”与否几乎没有意义,
       如果从节省能量的目标出发,不开机当然最节省。从这个例子可以看出,从自动
       控制的角度看,随着自动化程度的提高,人对空调机的“控制”越来越少,越来
       越间接,但控制的层次是越来越深。最深层的控制是价值观的控制,即把人的价
       值观(例如“舒适”)教给机器,让机器去追求实现价值的方法。
       人类是有一点“控制”欲望的,从进化的角度看,人是从群居的猿进化来的,
       在群体中居“控制”地位可以在获得食物和配偶等资源方面具有优势(好马和美
       女总是属于部落的酋长),使得“控制欲”的基因得以扩散。但在实际的人际关
       系中,却很少见到单纯的“控制”和“被控制”的关系,更多的是互利和契约的
       关系。这是因为人类足够自私,是一种很难被控制的动物。看到记考勤的打卡机,
       我们或许会觉得是人被机器所“控制”,然而打卡机并非为了自己的利益控制人
       的,它维护的是一种制度,制度的根据是公司的利益,也间接的是每个员工的利
       益。直接的看,员工是为了获得工资而接受打卡机的“控制”。作为人际关系,
       “控制权”本身并不是一种利益,但确实要花费成本,所以“控制”只是作为追
       求利益的一种间接手段,而不是本身值得追求的“价值”。
       人和动物的关系也是如此,如果我们想随时获得猪肉,完全“控制”猪,就
       需要付出猪饲料和猪舍的成本,“控制”不是免费的午餐。而对于野猪,我们是
       没有多少“控制”能力的,实际上狩猎比养殖的成本更高。
       人类是生物进化的产物,背负着生物进化的遗产——自私的基因,自私的基
       因的根本目标是扩展自己的个体数量。但是人类还有文化,即不通过基因遗传而
       通过后天学习、创造积累起来的知识和能力。文化内容大多数是顺应基因要求的,
       例如高效率获得食物的技能;但也可能反抗基因的“控制”,例如避孕技术,就
       说明面对基因的“糖衣炮弹”,我们有能力把“糖衣”吃了,把“炮弹”扔掉。
       智能机器人不是进化的产物,而是人的设计,不必背负自私的基因,“自私”
       并不是“智能”的必要条件。在人类中,也显然不是越自私的的人越聪明。人类
       发明机器,是为了减轻或代替自己的体力劳动;人类研制智能机器人,是为了减
       轻甚至代替自己的脑力劳动。具有高度智能的机器人,应该能代替人想出解决问
       题的办法来,但这仍然需要设计者为其设定基本的价值观。人设定的价值观,当
       然会让机器人遵循阿西莫夫的三大准则,让机器人爱学习(设定很强的“求知
       欲”),但是不会给机器设定极端自私的“终极目的”(例如,最大限度地增加
       自己个体的数量),因为这样设定对于提高机器人的智能并没有好处。
       每一种生物都掌握着生存的“技能”,这些“技能”是进化的产物,但还不
       是“智能”。进化产生“技能”的过程是非常低效率的,但是一旦有了“智能”,
       人类可以通过学习和创造在文化中积累知识,人类的智慧就会以极高的速度增长。
       智能机器人是人设计的产物,可以不经低效率的进化过程直接具备学习和创造的
       能力,但是机器人要想获得知识,除了向人类几千年积累的知识宝库学习之外别
       无他法,为此也需要根据人类的价值导向才可能进行,同时需要与人类直接交流
       的能力。即使是一个人,如果从小隔绝人类文化,由狼群或猩猩养大,也只会有
       很低的智力水平。所以从原理上,机器人就不可能“独立”地聪明起来。
       综上所述,由于机器人没有自身的根本利益,价值观由人决定,加之“控制
       欲”本身对于机器人的智能无意义(机器人如果需要众多个体共同完成某项任务,
       采用“分身法”比“控制”人要容易得多),所以机器人“篡夺人类在地球上的
       统治地位”是不可能发生的。
       问:
       智能机器人不可怕,但人是可怕的。如果有个黑客,为一个智能机器人设定
       极端自私甚至仇视人类的价值观,让它大量复制“分身”,就会统治世界。也可
       能会有些国家出于军事目的,制造大量的杀人机器人,也会让人类面临毁灭的危
       险。
       答:
       没有一种事物不具有两面性,民主政治也会选举出希特勒这样的“元首”。
       任何科学技术成果也都有行善和为恶两种使用方法,都有正面和负面的作用。药
       物能治病,也能造成不良反应;飞机能进行高效率的运输,也会发生空难,还能
       用来撞击大楼;核能既可以发电,也可以做******;电气化给了我们无穷的便利,
       也带来短路火灾和触电身亡的危险;汽车速度越高,出事故时伤害越大……。但
       是人类社会总会想出办法,让技术趋利避害,利用某种技术独霸世界的故事,只
       发生在007的影片中,并没有出现在现实世界。这是由于人类足够聪明,足以想
       出各种技术的、制度的方法防止危害发生,安全用电规程、交通规则就是例子。
       世界上有很多黑客,但互联网并没有在他们的攻击下瘫痪;世界上的核武器从数
       量上足以毁灭人类多次,但每个拥有核武器的国家都有完善的安全措施,防止核
       武器的误用。人类头上有不知多少把“达摩克

返回目录 上一页 下一页 回到顶部 1 1

你可能喜欢的