QQ登录

只需一步,快速开始

探讨:阿西莫夫三大定律与机器人法则的现实性

[复制链接]
索理客 发表于 2014-1-1 18:20 | 显示全部楼层 |阅读模式 来自: 中国–天津–天津 电信/电信/IDC机房

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?加入牧夫(请注明天文爱好者,否则无法通过审核,请勿使用gmail/outlook/aol/icloud邮箱注册)

×
目前不少国家开发了智能战场机器人,这些机器人杀手让人们担心《圣经》中描述的审判之日离我们不远,出于对战场机器人的顾虑,不少政府开始更加关注对战场机器人问题,至少距离完全禁止生产机器人杀手迈出了第一步,当然,是在机器人杀手被造出来之前。


                               
登录/注册后可看大图

© Shutterstock

今年11月,CCW(《特定常规武器公约》)的成员国同意明年在日内瓦举办会议讨论“致命自主武器”的议题,这个名字是官方的叫法,抗议者们称之为“机器人杀手”。

机器人对军方而言优势太大:无需报酬、不吃不喝不睡觉、自主执行上级命令、不会害怕、愤怒,也不会痛苦。还有,即便机器人在战场上轰成渣,也不会造成国内悲痛。

从第一辆坦克投入战场到以色列研制的大卫的投石索飞弹,技术改变战争的例子不胜枚举。进来备受争议的战争用无人机便是例子,但是即便如此,无人机也需要人远程控制。无论是锁定目标还是发射导弹,做决定的都是人。

无数专家关心的其实是下一代机器人武器:可以自行决定目标并杀死目标的武器。

禁止制造机器人杀手

“明年开始全球国家将对机器人武器进行讨论,这对禁止制造机器人武器是一个巨大的进步,”人权观察的武器负责人Steve Goose说,“各国政府已经意识到全自动化武器带来巨大的立法压力和道德压力,问题已经刻不容缓。”

目前完全自主机器人武器部署到战场可能还需要等上20-30年,由学者和专家组成的国际机器人控制委员会(ICRAC)担心可能发生的机器人武器军备竞赛,认为有必要禁止研发和使用自主武器系统。委员会指出:“机器不能做出谋杀人类的决定。”

目前还没有那个国家制造出自主武器,但是这个提议绝非只是[url=]纸[/url]上谈兵。今年下半年美国国防部(DOD)发布了如何使用自主武器以及如何在战场部署自主武器的规划书。书中规定了如何操作自主武器,然而却没有只字提到禁止使用。

国防部指导中写到:“自主和半自主武器应该能够听得懂指挥官或操作人员下令开火的合适命令。”规划中要求武器要做到“足够机动灵活,尽量避免执行计划外行动或让未授权使用者操控机器。”

但是指导似乎的的确确放弃人工智能武器,而选用人类精确定位目标:“有人监控自主武器系统可以用于选择目标并向目标开火,但目标不可为人类,以应对拦截美国国内可能发生的袭击行动,这些行动经常是时敏目标或密集目标。”

英国政府的态度则与美国相反,英国并不打算采用全自主武器。今年初英国外交部部长Alistair Burt向国会做陈述说“英国军队的武器控制权始终掌握在人类手中,以此保证武器由人类监督由人类掌管,并由人类负责使用武器。”但是随后Burt的言辞又让人寻味:“英国单方面做出承诺目前阶段绝不部署致命自助武器系统,但是这不表明英国会签署暂缓研发和使用自主机器人武器的条约。”

ICRAC主席Norl Sharker是英国谢菲尔德大学研究人工智能和机器人的一名教授。这位教授看过了自主武器的军方计划书后大为震惊,因为“军方显然完全过分预估了这项技术,他们对自主机器人的看法更像是科幻小说的描写。”


                               
登录/注册后可看大图

Noel Sharkey教授

ICRAC提议禁止研发和制造自主机器人武器的目的并不是抵抗自主机器人。“我家里用的[url=]吸尘器[/url]机器人就是自主机器人,我研究自主机器人的开发已经有30个年头了。”ICRAC真正希望是禁止机器人拥有“杀戮功能”。自主机器人一旦运行,就会自主寻找目标并打击目标,Sharkey说:“打击目标的意思是指杀死目标。把机器人设计成自己选择自己认为合适的目标进行打击,这就是ICRAC要阻止的。”

对Sharkey来说机器人根本不会遵循基本的战争法。机器人无法区分战斗人员和平民,也无法分辨出哪些人是伤兵或者那些建筑是符合战争法中规定的可打击目标。“没有任何人工智能机器人武器可以做到完全分辨目标,根本不可能。”Sharkey博士指着英国制造的可以区分人和[url=]汽车[/url]的机器人说“这太机器人可以分辨人和汽车,但却分不清对面站着的是一只跳舞的狗熊还是一条两条后腿站立的狗。”

机器人武器也不能判断利弊,他说,机器人无法判断某次攻击行为造成的军事打击和平民伤亡孰重孰轻。“机器人怎么可能知道?军事打击获得的战争优势都可以让博士们发表好几篇论文了,战场上有太多变数,只有身经百战的指挥官身临战场才能做出判断。”

Sharkey指出最大的问题其实还是负责制度。如果某次军事行动出错,机器人无法被问责,这也是与Sharkey交流过的指挥者们真正担心的问题:如果机器人出错了,倒霉的可是指挥官们。

“这对指挥官不公平,机器人随时会崩溃当机,机器人有可能被人类诱骗,可能被黑,可能由于编程中的某次出错让黑客通过计算机控制开枪,机器人的传感器可能出现故障,而这一切又应该由谁来负责呢?是制造者?软件工程师?机器人工程师?还是指挥官?在战场上一旦出错必须清楚谁该负责。“

Sharkey关心的是一旦技术上的限制被突破,战争机器人极有可能逐步推广到全世界的战场。“自主机器人技术并非用于战争,即便自主机器人武器被部署在战场,这项技术本身也不适合用于战争。”

战场上的科技树越攀越高,自主机器人投入使用的可能行也越来越大。如果仅靠拦截通讯就可以阻拦敌方无人机,那么可以轻易自主执行任务的无人机就会被开发出来。同样的道理,遥控无人机驾驶员在遥控装置上发出一个指令到无人机真正执行之间有1.5秒的延时,人工操控无人机的反应速度会不如自主无人机,这也为自主无人机的推广给出了理由。

ICRAC希望管制传统武器联合国大会此次讨论自主武器将为禁止自主机器人武器迈出第一步,对激光致盲武器的禁令就是这么走过来的。

“机器人有权决定是否杀死人类,这是人们必须面对的道德抉择。”

人们对自主机器人武器的误解达到了不可思议的地步,其中的原因是对人工智能抱有太大期望,实际上人工智能的水平还远没有达到人们的预期,或者,用Sharkey教授的话说“因为科幻小说而导致的人们对人工智能的文化曲解。”机器人研究者指出AI目前的应用领域都是一些极为平常的领域,并非用于制造能够思考的机器人。

“20年内可感知机器人会诞生,而在每个年代都有人扬言智能机器人就要诞生了,但是真正的机器人工作者们却从来不这么说,他们继续着他们的研究。人工智能在不断发展,它的身影遍布我们身边只是我们从没意识到——手机和汽车,这都是科学家们研究的内容。”

有人指出在遥远的未来人工智能可能发展成熟,[url=]电脑[/url]可以遵守战争基本法,即便这样,最基本的道德问题依然没有消失。Sharkey说:“谁改负责的问题依然没有得到解决,人们还是要抉择是否应该让机器人有权杀死人类。”


                               
登录/注册后可看大图

© Shutterstock

机器人法则

对机器人是否拥有权利杀人的讨论可能略显神秘,争论本身也还是很模糊,尤其是——杀人机器人还不存在。

目前我们的工作是为特殊用途制定特殊的机器人规则,例如国防部的自主武器系统规划。另一个不那么雄伟的例子:美国一些州最近准备通过允许自主驾驶汽车上路的法案。我们正为不同的机器人应用领域制定不同的机器人规则,却很少去研究机器人杀人问题。

然而,有许多人提出创建一系列新的规则和道德框架来掌握人工智能和机器人。这其中最出名的也是是阿西莫夫的机器人三大定律,这套规则在1942年首次被提出,至少在科幻世界中已经为机器人的行为准则制订了道德框架。



无论是机器人还是人工智能都没有发展到足以理解或遵守这三条定律,亦或者是其他复杂的规则。吸尘机器人就不需要理解如此复杂的道德规则。

“人类想出了阿西莫夫定律,但是定律本身就表明了简单的道德规则无法运作。如果你通读三大定律你会发现每条定律都说不通,阿西莫夫定律是不切实际的。”英国巴斯大学的Joanna Bryson教授说。

Bryson教授强调机器人和人工智能只能被视为最先进的工具——极端复杂的工具,但是仅此而已。她指出人工只能应该被当做人类智能的扩展,就像书写成书是人类记忆的扩展一样。“人工智能只是人类千百年来改造世界的无数工具之一,”她说“不同的是改造的速度比以前更快了。”

无论机器人的自主能力和智能达到何种水平,对Bryson来说,机器人和人工智能都只属于工具范畴,因此需要规则的并非机器人而是人类。“人们需要在自身建立道德框架,机器人用不着拥有自己的道德框架。人类要做出选择,把机器人放在人的道德框架之内,才不会残杀地球上的其他生命。”

英国工程和物理科学研究理事会(EPSRC)是少数几个致力于制定一套实用 的机器人规则的组织,但是很快EPSRC就意识到目前机器人并不需要这么一套规则。

EPSRC的机器人守则中注明:“阿西莫夫定律的不恰当性在于规则规定了机器人应该怎么做,规则将机器人视作人类,但是现实中,设计和使用机器人的人类才必须成为类似这种规则的遵守者。如果在人类社会中考量机器人的道德规则,很明显所有责任不在机器人。”

由此,EPSRC的专家包括Bryson博士制定的规则的目标针对机器人的设计者、制造者和使用者,对机器人本身并不适用。

举例来说,五条规则包括:“人类,非机器人,是责任承担者。机器人的设计和操作必须遵守现行的各项法律法规和基本人权以及包括隐私权在内的自由权。”

伦敦大学学院的Kathleen Richardson教授也表示无须为还不存在的机器人制定新的规则以保护人类不收其他机器的侵害,即便这些机器人被用于战场。

“遥控杀人机器会导致一系列人与人之间暴力相处的新问题。在这种情况下,你必须了解机器会杀死“正确”目标……即便这样,遥控杀人机器和机器人道德还是没有关系,真正需要关心的是人类道德。”她说到。

“目前我们制造的机器人不是科幻小说中的思考机器人,她说,因此[url=]健康[/url]标准和安全标准反而是最重要的问题。我们建造的机器人不是一不小心就攻击你的机器人,我们的工作是帮助机器人分清对错。”

“人类要做出选择,把机器人放在人的道德框架之内。”

Joanna Bryson博士/巴斯大学

“科学家研制的机器人类似自动便利设备,”她说,“我们应该把更多关注放到实际造出来的机器上面,我们要保证人们使用的机器是安全的机器。我们不需要为机器人制定“特殊”规则,人们口中讨论的能够掌握道德观的机器人还不存在并且未来也不太可能存在。”她也说到。

也许我们需要的可能是保证我们家中使用的两足机器人的安全性,这是更实际的考量,这也是你在使用家庭中所有消费电器时要考虑的因素。

“还有,道德观实际上比这些定律和规则负责得多,”她说:“道德观是一系列相异的见解,不同用途的机器人践行的道德观也是不同的。”

开放思想 去爱机器人

确实,我们遭遇杀手机器人的概率十分渺茫(希望如此),机器人在关照日益增多的老年人生活起居方面也起着越来越重要的作用,这个问题就更加庞大而长久了。与其害怕机器人残害人类,人类在情感上更依赖机器人,机器人给我们的爱也多的数不胜数。

机器手和人手相握

EPSRC还有一条指导规则(再次声明,这是机器人领域为数不多的规则之一),规则中陈述:“机器人由人类制造,人类不允许以欺骗手段让机器人剥削弱势群体,机器人必须所言即所想。”规则提醒人们,某些没节操的制造商会通过机器人宠物或机器人伴侣让人产生机器人有感情的错觉,从中谋取利益。

把机器人造的拥有感情,然后觉得有必要给它们套上道德的框架来指导它们的行为,这也许才是人类要面对的最大风险。我们冒险将机器人打造地和人一样——却因此也让机器人更容易忽略人类。

Richardson教授说机器人科学家对机器人道德观的思考无可厚非,但是对机器人道德观的争论却忽略了另一个更严重的问题:为什么我们要用这些设备,尤其是在人与人交流的社会关怀领域。

现实的责任

杀人机器人和强悍的疯狂人工智能常常在廉价的科幻小说里读到,但是关注这些可能的威胁让人们忽略了对自己生活的现实社会的思考。机器人道德观反映或者控诉了人类社会,表达了对于人类无法准确定位机器人的担忧。机器人无论是用于战争还是照看我们的长辈——其实都是人类自己不愿意去做的事情。

让机器人来做这部分工作可能可以解决部分问题,但是潜在问题依然没有解决,更糟糕的是导致社会忽视机器人。机器人上战场让战争变得简单,机器人照看老人让我们更容易忽视我们敬老的责任和社会压力,尤其是处在这个老龄化社会。鉴于此,对机器人道德框架的担忧更多的是分散人们对于自己道德滑坡的注意力。


http://www.cnbeta.com/articles/266586.htm

vivian260573235 发表于 2014-1-1 21:35 | 显示全部楼层 来自: 中国–广东–肇庆 电信
有黑客/病毒 篡改这些写入机器人的规则。
回复 顶~ 砸~

使用道具 举报

三叶观天 发表于 2014-1-1 22:02 | 显示全部楼层 来自: 中国–广西–北海 电信
我现在越发觉得终结者脑袋里的那芯片就是量子芯片,量子CPU的诞生将揭开终结者的序幕
回复 顶~ 砸~

使用道具 举报

本版积分规则

APP下載|手机版|爱牧夫天文淘宝店|牧夫天文网 ( 公安备案号21021102000967 )|网站地图|辽ICP备19018387号

GMT+8, 2024-11-23 08:10 , Processed in 0.064611 second(s), 4 queries , Gzip On, Redis On.

Powered by Discuz! X3.5 Licensed

Copyright © 2001-2020, Tencent Cloud.

快速回复 返回顶部 返回列表