【编者按】因为随着科技的发展,科学家们给出的定义被不断刷新。通常认为,对自己具有一定的控制和感知能力,能够自主完成一定的动作的机器装置,就可以算做机器人。
最近,位于德国的一家汽车制造厂里,一台高度自动化的机器人突然出现了错误操作,抓起旁边的一名安装工人,摔向了一块金属板,造成该工人不幸罹难。消息一出,舆论哗然:加上不久之前刚刚上映的电影《超能查派》,很多人开始担心,以后科技进步了,会不会出现特别聪明的机器人,背叛了人类的意志,最终成为《终结者》里那样主宰世界的机器霸主?另外,如果机器人真的杀人了,谁该为这样的凶杀承担责任?
其实啊,这事还真没那么可怕啦。
啥是机器人?
在讨论之前,我们不妨先来划定一个范围,什么样的东西,才算是机器人呢?
实际上,这个问题并没有确切的答案,因为随着科技的发展,科学家们给出的定义被不断刷新。通常认为,对自己具有一定的控制和感知能力,能够自主完成一定的动作的机器装置,就可以算做机器人。
这里所说的“自主”,又有两层意思:第一种,是按照人类预先给它设定好的程序,按部就班地执行下去,实现人类设计好的功能。这种机器人如今已经非常普遍,大到登月的“玉兔”号探测器,小到家用的扫地机器人,都属此类。
也就是说,这类机器人要去做什么事情,都是它的制造者说了算的,它只是一个工具,并不拥有真正的自主意志——和原始人手里的石斧并没有本质差别;区别只在于这种工具比较“聪明”,能够根据实际工作的情况,更灵活、更精确地实现主人设定的程序,完成更加复杂而精确的行动,就像在坑洼不平的路面,坐汽车肯定比坐牛车舒服。
第二种就有点吓人了,这种机器人拥有一定的人工智能(AI),能够自主学习和独立思考,在人类给它设定的程序之外,实现人类没有教给它的功能,就像电影里的查派和终结者。这种机器人的行为是不可预测的,就像我们看到一个襁褓中的孩子,也不可能知道他将来会成为怎样的人,做出怎样的事情来?
真会杀人?
提到机器人“谋杀”人类的问题,第一种机器人显然不在讨论之列,因为正常情况下它们并没有被设定杀人的程序,哪怕是真的判断失误而误伤人类,那也只能是意外事故;即便是有谁使坏,故意给机器人装了危险的指令,此刻的机器人依然还是一个工具而已,并没有自主的意志。
这一类机器人致人死亡的事情,实际并不算罕见,比如本文开头提到的这起事故。理由也很简单,任何人类制造出来的东西,都不可能100%地确保不出故障;而越是功能复杂、制造精密的系统,发生故障的概率就越难降低。回想一下,这些年人类发射的无人航天器,从菲莱、玉兔到新视野号,尽管都代表了当时最先进的科学技术,但多多少少都有掉过链子。
机器出了故障就有可能对人类造成伤害,人类能做的只能是尽量降低故障率,加强安全防护,却不能因噎废食,放弃机器人的运用。全世界范围内,因为汽车出现故障而致人类死亡的案例每天、每小时甚至每分钟都在发生,但汽车依旧是人类最青睐的机器;同理,我们也没有必要对机器人苛求永不犯错。
尽管从理论上说,第二种机器人完全可能以“自主的决定”去杀害人类,但令人宽慰的是,囿于科技的发展水平,目前世界上还没有造出一种和人类能力接近的人工智能(AI),所以我们暂时还不用担心这事。
但是,还有一类介于这两者之间的机器人,还真的可能会成为人类的杀手,那就所谓的战争机器人(killer robot)。
目前大家所熟悉的“掠食者”无人机,本质就是战争机器人,但它依然属于我们说的第一类机器人,导弹要锁定谁、要不要发射都是由坐在基地里的人类遥控决定的。然而,一些国家已经在研制自动化程度更高的战斗机器人,允许它们在战场上自主寻找、选择目标,再自己决定是否开火。显然,这类机器人如果出现故障或者误判,后果会比工厂里的焊接机器人严重得多。 今年3月,联合国秘书长潘基文先生曾公开呼吁各国停止此类研究,但似乎效果很有限。
如何预防?
可以预见的是,制造机器人的科学技术仍会不断发展,而人类对于机器人的运用也会越来越广泛,无论是居家生活、工业生产中都是如此。比如,谷歌公司一直在研究的无人驾驶汽车,或许数年之后就会行驶在马路上。
因此,如何尽量避免“机器杀人”的危险出现,就是一个很有现实意义的问题了。
对于第一种机器人(也就是目前使用的机器人)而言,除了在设计、调试时更加谨慎之外,最实际的措施就是减少人类和机器人直接接触的机会。对于有固定工作地点的机器人(比如流水线上的机器臂),可以设置物理隔离并划定危险区域,禁止无关人员靠近;对于能自主走动的机器人(比如扫地、送外卖的机器人),则可以加装规避装置,让它和人类时刻保持安全距离。此外,给每台机器人加装操作简便的“红色按钮”, 确保在它出现错误动作时,人类能够一键关停。
对于第二种机器人(具有自主思维能力的AI机器人),实际上并没有确切的预防方法,因为谁也不知道真正的人工智能将会如何思考、如何学习,如何理解人类的情感?一种可能的思路是,按照科幻小说作家阿西莫夫提出的“机器人三定律”来制约人工智能,将“机器人不得伤害人类”、“不能眼见人类处于危险而袖手旁观”原则贯穿整个开发工作的始终,“从小开始”培养智能机器人对于人类的服从与善意。
当然,这种方法能否奏效,目前依然有很大的争议。另一种观点认为,如果我们真的能制造出一个自主学习、独立思考的人工智能机器人,其性质就跟渔夫撬开胆瓶上所罗门的封印差不多,人类根本无法预测、控制这个AI能够学到多少知识,又会用这些知识造出什么样的东西来(或许可能是它自己的许许多多个副本),搞不好就是人类文明的尽头。
这次发生在德国的事故的确非常令人遗憾,但人类似乎并不需要对这种非智能机器人有太多顾虑,毕竟,我们早已将更加生死攸关的问题交给了电脑与机器(比如民航客机上的自动驾驶仪,记录你全部身家的银行、股市的服务器),对于“机器杀人”这种小概率的事故就更不需要焦虑了。
相应地,对于未来可能出现的人工智能机器人,或许更需要引起关注与思考。当然,开发AI机器人是科学家和工程师们的事情,但有空了解下这个新奇的领域,也是件很有意思的事情。
声明:本网站所收集的部分公开资料来源于互联网,转载的目的在于传递更多信息及用于网络分享,并不代表本站赞同其观点和对其真实性负责,也不构成任何其他建议。本站部分作品是由网友自主投稿和发布、编辑整理上传,对此类作品本站仅提供交流平台,不为其版权负责。如果您发现网站上所用视频、图片、文字如涉及作品版权问题,请第一时间告知,我们将根据您提供的证明材料确认版权并按国家标准支付稿酬或立即删除内容,以保证您的权益!联系电话:010-58612588 或 Email:editor@blueai.net.cn。
- 暂无反馈