友情提示:如果本网页打开太慢或显示不完整,请尝试鼠标右键“刷新”本网页!
冰人幽灵-第84部分
快捷操作: 按键盘上方向键 ← 或 → 可快速上下翻页 按键盘上的 Enter 键可回到本书目录页 按键盘上方向键 ↑ 可回到本页顶部! 如果本书没有阅读完,想下次继续接着阅读,可使用上方 "收藏到我的浏览器" 功能 和 "加入书签" 功能!
更简单部分,用这些部分的相互作用来解释人脑作为整体系统的“运行机制”。
问:
我觉得这个“研究方向”未必行得通。综合起来看,人与机器的差别是巨大
的。机器缺少情感,没有思维但复制和制造容易,兼容性强;而人有情感和思维,
而且又极其排他(无论是社会意义上的自私还是生物学意义上的免疫排异),这
一切又使得人们认为人和机器在本质上还是不一样的,前者有血肉情感和灵魂,
而后者没有血肉情感和灵魂。
答:
这个看法符合大多数人的直觉,也符合目前的现实。现在的机器都没有“灵
魂”,但如果我们把“灵魂”理解为“自我意识”,那么将来的机器完全可能具
有自我意识或“自由意志”。如果我们认为“灵魂”是一种除了人以外不可能有
的神秘存在,那么机器就不会有“灵魂”。但是这种想法使我们想起历史上的
“活力论”,过去人们认为生物具有一种“活力”,与非生命的“无机物”有
“本质”的不同,后来人们认识到有机物与无机物遵循完全相同的化学原理,人
工合成了“有机物”,“活力论”也就破产了。20世纪40年代,信息论、控制论、
系统论和计算机技术的发展,为科学开辟了全新的天地。其中最大的突破就在于,
在物质、能量之外,提出了“信息”这一重要概念。信息依存于物质的形态,信
息处理需要能量,但信息又是一个独立的概念,计算机无论采用什么材料或物理
原理来实现,继电器、电子管、晶体管、光元件、神经元,从信息处理的角度看
是完全等效的。或者说,一台计算机无论用硅片来做,还是用神经元来做,从信
息处理的角度看并没有什么不同。因此,把“情感和灵魂”看成是信息处理机制,
就完全可以脱离“血肉”,存在于硅片上。当这一设想成为现实,“灵魂论”也
将像“活力论”一样破产。
问:
看来持乐观态度的还不少,据说研制智能机器或智能机器人已经是IT技术的
时尚和方向。人们希望这种机器人有人的情感和思维,有与人相同的智慧甚至超
过人。如今IT技术的许多成果和产品已经证明机器人正在具有人的情感、思维和
智慧,甚至超过人。因此既可以叫机器人智能化,也可以叫人性化,美国人还称
为精神机器人。你怎么看待这些说法?
答:
如果把人的情感、思维和智慧看作信息处理机制,那么计算机在这些方面超
过人就没有什么不可能。但是就目前的研究水平来看,说机器人正在具有人的情
感、思维和智慧就有些言过其实。问题主要出在对“感情”、“思维”、“智慧”
缺乏一致的定义。例如,有些机器人已经可以识别人的表情,喜怒哀乐,也可以
相应的做出一些表情。这些研究当然有意义,也有实用价值,但是还很难说这样
的机器具有“人的情感”,因为这台机器“自己”并没有“情感”。“思维”、
“智慧”也是一样,如果一个小孩会做复杂的算术,我们觉得他在“思维”,很
有“智慧”,但是一台计算机即使会解复杂的代数方程或偏微分方程,我们也不
认为它有多大的“思维”和“智慧”。深蓝战胜卡斯帕罗夫是一大新闻,但是在
人工智能研究领域并不算重大突破。目前机器与人的最大的差距在于,计算机还
不具有人那样的“举一反三”的能力,也就是学习和创造的能力。已经有不少人
认识到,“学习”算法在数学上就是一个“优化”算法,但为了让计算机自己学
习,它必须知道什么是“优”。或者说,计算机不只知道“怎样做”,还需要知
道“应该做什么”,否则是谈不上什么“智慧”的。这种“优、劣”、“好、
坏”、“善、恶”被意识所感知,才是所谓的“情感”,意识在学习中起着重要
的作用。在真正意义上关于情感和意识的研究才刚刚起步,所以研制“具有人的
情感、思维和智慧”的机器人还有漫长的路要走。不过一旦机器能够用人脑的原
理和机制进行思维,超过人就不难了,毕竟和神经元相比,电子器件的速度要快
好几个数量级(千百万倍)。假如两个人的思想方法完全一样,只是甲想任何问
题都比乙快一倍,在旁观者看来,会觉得甲比乙更“聪明”,尽管乙不知道的甲
也照样不知道。
问:
现在在技术上已经可以把硅芯片埋入人脑,尝试治疗某些疾病。将来是否可
能在视、听神经中埋入芯片,记录人一生的见闻乃至思想,就可以在此人死后使
其在机器人中复生?
答:
仅仅纪录人的所见所闻不足以推测其思想,因为有相同经历的人未必有相同
的思想。纪录计算机的“思想”比较容易,只要纪录“总线”上的信息,再知道
CPU的规格,计算机“想”什么就全都清楚了。遗憾的是人脑中没有这样一条
“总线”,人的思想是分散在几万亿个神经元突触中的,探测起来极为困难。所
以记录思想的设想虽然在原理上是可能的,但技术上目前还没有找到突破口。
问:
我感到最可怕的是,计算机的禀性与人性已达到高度的一致,在它与人对弈
屡次失败后,或人的指令惹怒了它使它恼羞成怒时,它会把对手、把指令它的人
杀死。这样的报道已屡屡出现,是否真实还有待验证。但也可以说明,计算机的
人性和智能已经与真实的人性越来越由兼容性了。
答:
如果这有这样的事,应该说计算机是“灭绝人性”了。下棋下输了就杀人,
能说是“人性”吗?稍微懂得一点计算机的常识,就可以看出这一定是三流报纸
的假新闻。计算机要能杀人,首先得有手才行(内行的术语叫“执行机构”),
但下棋的计算机是不需要手的,只要在屏幕上显示棋局即可。我也看到了这个新
闻,说计算机把电通到键盘上,把对手电死了。但要使这样的事可能发生,首先
需要设计导电的键盘(现在的键盘都是塑料的,不导电),然后再把强电通到键
盘上,还要加一个开关,并且让计算机控制这个开关。这一切都是没有手的计算
机做不到的,只有人能做到。所以如果真有这样的事,也只能是“人杀人”,而
不是“计算机杀人”。机器人有手,所以原则上可以杀人,工业机器人“杀人”
的事件确实出现过,但那是机器人的控制系统受到干扰,发生误动作,把操作人
员按在墙上挤死了,事件的性质相当于普通机器的事故,机器人本身并没有杀人
的“动机”。
问:
现在的机器人还没有任何“动机”,但是将来的那些比人还聪明的机器人就
不同了。到那时候,科学作家艾萨克&;#183;阿西莫夫于1950年在其著作《我,机器人》
中提出的著名的为我们后来人奉为圭臬的机器人三定律就可能会过时了。机器人
三定律是:第一定律,机器人不得伤害人,也不得在人受到伤害时袖手旁观;第
二定律,机器人应服从人的一切命令,但不得违反第一定律;第三定律,机器人
应保护自身的安全,但不得违反第一、第二定律。这三个定律更有可能被机器人
单方面撕毁协议。因为一旦机器人与人一样有了感情、思维、推理和智慧,甚至
比人更聪明,就会比人更工于算计和自私。这样,下面的一个在激烈竞争时代的
流行故事就得改写。
原先的版本是两个人在森林里走路,遇到了一只老虎。一个蹲下来系鞋带,
旁边的人说这时候系鞋带还有什么用啊?系鞋带者说,我系好鞋带只要能跑过你
就有用了。但是机器人与人在森林里散步,也遇到了一只老虎。机器人就会思考,
什么机器人不得伤害人,见鬼去吧!在利益面前,先保护自我。机器人也不用系
鞋带,它首先就会把人一把揪住,送到虎口,说,你先凑合着吃这个人吧,我再
给你找个更可口的,说完就自己先逃走了。
答:
这种说法存在一个误区:认为越聪明的人越自私,这是毫无根据的。在我们
日常生活中也得不出这样的“规律”,那些最自私的人恰恰不大聪明,不知道与
人合作才能获得更大的利益。生物进化的自然选择规律使得生物都是自私的基因
的表现,所以一切生物的本性都是一样自私的,尽管如此,生物的智力却有天壤
之别,这也说明自私与智力并不相关。
机器人三定律这个说法不恰当,这三条不是自然界的“定律”,也不是机器
人与人签订的“协议”,而是我们制造机器人时给机器人规定的行为准则,也可
以看成是一组价值观。当然这个准则只是一般而论,如果有人想设计机器人用于
战争,恐怕就要改成“不伤害自己人,要伤害敌人”之类了。这类机器人非常危
险,设计者当然会加上多重的安全措施,以免它掉转枪口打自己,正如对军人要
训练他绝对服从命令一样。
机器人也会有某种程度的“自私”作为学习时的评价准则,例如尽量节约能
量。但是与人类比较起来,其自私的程度会逊色很多。这样估计有几条理由:第
一,人是进化的产物,是自私的基因的表现,其生存的意义就是生存本身,而机
器人是人是人设计的,其生存的意义是为人而存在的,是获得更多的知识。第二,
人是动物,受到很多生物学的制约,但是机器人则不存在这种制约。例如,生命
属于人只有一次,所以人(以及一切动物)都会尽最大努力保护自己的生命,
“我”是唯一的;但对于机器人而言,这些约束却不存在,机器可以自由的复制
自己,就像孙悟空拔一把毫毛变出成千上万的自己,到任务完成后再合成一个,
把各自学到的知识收集到一起;人的头脑不可能和****分离,机器人却可以把脑
袋放在某个计算机里,通过宽带网控制现场的身体,身体“遇难”了,再换一个
就是,如同我们换一件衣服,甚至可以根据不同的任务选用不同结构的“身体”;
机器人的“我”的概念与人类有很大不同,人类的“我”是一生不变的,不可分
合的,机器人的“我”可以是根据任务临时组建的,由于机器人的知识可以共享,
所有各个机器人获得的新知识都放在一个巨大的共同知识库中,当需要完成特定
任务时,可以按照任务需要从知识库中选取知识和经历,组建一个机器人,任务
完成后把所学的新知识、新经验加入知识库,“我”到此终结。这样可以随时产
生,随时消亡的“我”,当然没有太自私的理由。
所以那个老虎的故事就没什么道理,机器人的身体是金属和塑料制品,老虎
不会吃,没有理由逃走;即使损坏了,也可以很方便的修复或更换;而它如果想
出好方法来救人,就成为可贵的知识,被载入知识库,使自己的一部分得到永生,
何乐而不为。
问:
如果智能机器人不受人类控制了,怎么办?它们有可能会篡夺人类在地球上
的统治地位,把人类也当成一般的动物看待。
答:
“控制”这个词可以从不同层面上理解。拿空调机做例子,如果一个空调机
没有任何自动控制功能,只有一个开关,我们觉得热了就把空调打开,感到冷了
就关上,空调完全在我们的“控制”之下,但这样的空调用起来是很麻烦的。我
们现在使用的空调都有温度自动控制功能,温度高了自动打开制冷,温度低了自
动关机,自动维持我们设定的温度。看起来“人类控制”少了,但这样的空调我
们觉得控制更方便了。如果空调机更聪明,能听懂我们的话,我们只要说“这屋
里太热了”,它就会自动设定温度,****我们的要求,“人类控制”更小,我们
却更省事了。如果这个空调机不管我们的感受,随意设定温度,弄得我们很不舒
服,我们会觉得这台空调坏了,需要找人修理。问题在于,空调机的“目的”如
果不是为了使人舒适,又会是什么?是为了让空调机自己“舒适”吗?为了弄清
这个问题,先得明白人为什么会有“舒适”的感觉。人是恒温动物,过高或过低
的温度会使人的功能失调或消耗过大的能量,不舒服的感觉可以使人能够避开不
利环境,保护自己功能正常和节省能量。空调机不是恒温动物,其制造材料可以
在很宽的温度范围之内不会损坏,所以空调机自己“舒适”与否几乎没有意义,
如果从节省能量的目标出发,不开机当然最节省。从这个例子可以看出,从自动
控制的角度看,随着自动化程度的提高,人对空调机的“控制”越来越少,越来
越间接,但控制的层次是越来越深。最深层的控制是价值观的控制,即把人的价
值观(例如“舒适”)教给机器,让机器去追求实现价值的方法。
人类是有一点“控制”欲望的,从进化的角度看,人是从群居的猿进化来的,
在群体中居“控制”地位可以在获得食物和配偶等资源方面具有优势(好马和美
女总是属于部落的酋长),使得“控制欲”的基因得以扩散。但在实际的人际关
系中,却很少见到单纯的“控制”和“被控制”的关系,更多的是互利和契约的
关系。这是因为人类足够自私,是一种很难被控制的动物。看到记考勤的打卡机,
我们或许会觉得是人被机器所“控制”,然而打卡机并非为了自己的利益控制人
的,它维护的是一种制度,制度的根据是公司的利益,也间接的是每个员工的利
益。直接的看,员工是为了获得工资而接受打卡机的“控制”。作为人际关系,
“控制
快捷操作: 按键盘上方向键 ← 或 → 可快速上下翻页 按键盘上的 Enter 键可回到本书目录页 按键盘上方向键 ↑ 可回到本页顶部!
温馨提示: 温看小说的同时发表评论,说出自己的看法和其它小伙伴们分享也不错哦!发表书评还可以获得积分和经验奖励,认真写原创书评 被采纳为精评可以获得大量金币、积分和经验奖励哦!