注册

和军用机器人谈一谈道德


来源:经济观察报

巴黎高科评论

不论最终采取怎样的预防措施,具有杀伤力的自主机器仍给世界带来不安。成立于2009年的非政府组织国际机器人武器控制委员会由专门研究机器人、道德、国际关系与人权的专家们组成,这一组织反对一个充斥着武装机器人的“反乌托邦”世界。委员会还推出相关宣传活动,目标是防止机器人军备竞赛的发生,活动已经取得了一些进展。2013年5月,联合国在一份报告中呼吁,要对具有致命杀伤性的自主系统施加暂用禁令,直到成员国制定出使用规则为止。

美国在研究军用机器人领域是不二的全球领跑者。研究原因无外乎是为了减少军事行动中的艰苦与危险。上世纪九十年代早期人们提出了“干净战争”的理念。除了通过“外科手术式”的精准打击做到尽量减少平民伤亡,或者是更广义的人身伤害,“干净战争”的理念也反映了公众不愿让前线士兵冒着生命危险冲锋陷阵,遭受可能来自生理和心理(创伤后精神紧张性障碍)的双重打击。在与无视战争规则的非正规军交战时,囚犯待遇也是十分敏感的问题。

正因如此,过去二十年机器人在军事领域与作战中的地位不断提升,军工行业在研发机器人过程中取得了长足进步,在一定程度上也导致了民用机器人的进步。

所谓“军用机器人”,并非单指严格意义上的机器人(由算法操作的单一机器)。军用机器人还包括其他可远程控制的仪器。每种机器人都有许多实地优势。它们的表现不受天气环境(寒冷、雨水、黑暗)的影响;不会疲惫和分心,也无所畏惧。“受伤”之后简单将其维修或销毁即可。

但是,大规模使用军用机器人会影响人力资源及收入问题。不论是在服役期间或退伍之后,要支付给士兵的开支都不菲。2012年,美国政府拨出1500亿美元,用于支付服役和退伍士兵薪酬、社保与医疗服务,占当年国防预算的四分之一。军用机器人的兴起一部分也是因为减支的需求。美国政府目标于2015年底先裁军6万人,2019年底再缩减6万人,最终将士兵总数裁减至42万。

五角大楼一边努力减少作战单元的数量,一边还要确保军队的整体效率。2014年初,美国陆军训练及战略思想司令部司令Robert Cole将军表示,在2030-2040年底,要将旅级作战部队(美国军队编制中可单独作战的最小单位)从4000人的规模缩减至3000人。五角大楼最大的技术实验室国防高等研究计划署宣称,其目标简单来说就是:发明机器人,精简班组,节省交通开支。

专才还是通才?

机器人长久以来就是一种军用仪器。比如说,要操作战斗机,机载计算机就是不可或缺的一部分。在陆地作战时,机器人可以完成无聊、肮脏或者危险的任务。有些机器人具有多栖才能,有些则术业有专攻。

在完成拆除简易爆炸装置的任务中,机器人也起到了不可或缺的作用。这种做法是有其历史原因的。在伊拉克和阿富汗战争中,工程师发现,37至53磅力每平方英寸的压力足以引爆简易爆炸装置,远小于一个全装备士兵所载的88磅力每平方英寸压力。因此,他们发明了一台由一个简易机器人操控的迷你推土机来进行排雷。自此,人们又发明了各种不同的扫雷机器人。大多数的体积都非常小:由法国ECA机器人公司生产的Miniroge仅重13磅。紧凑的设计允许其深入诸如水管或汽车底部等困难区域侦测。

美军目前拥有7000架无人机与5000个地面机器人。其中最复杂的一款当属iRobot公司生产的Packbot 510型机器人。该款机器人能够在跌倒后起身继续作业、穿越崎岖地形、修复损坏的无线电、传回高清画面。另外还有一种“机器骡马”机器人,可负责驮运武器与补给,减少后勤运输的压力。国防高等研究计划署也在研发一种新型的自主机器人(与之前型号有所不同),搭载二冲程发动机与液压泵。这个金属的四足装置目前仍处模型阶段,平地上的运行速度可达到16 英里每小时。

军用机器人的核心理念就是“人造士兵”。其中一个研究重点就是如何将人和机器与一个外骨骼无缝接合——此高科技因电影《钢铁侠》一炮走红。有此技术,步兵团的战斗速度、实力与打击精度都会大幅提高。于2012年问世的XOS2型机器人,机身仅重22磅,却可让一名士兵背负超过200磅的重物!

自主度有多高?

机会不言自明,挑战也不可小觑。对那些由算法系统而非人类操作的自主机器而言尤为如此。而要制造各行业中流水线上操作的机器人,难度来自于如何让它们与人类保持同样高效率以及形体和精神上的独立完整。另外,法律上的不确定性或许也无可避免。机器人的行动由程序员、制造商和操作员所决定。一旦发生事故,三方中的哪方应承担责任?

另外,这些半自动或远程控制的机器的操作员也是机器行为的一部分,心理上难免会受到影响。有证据显示,远程操作无人机的技术人员可能产生的紊乱,是由日常生活与他们所做决定之间的脱节所致。他们所做的都是数千英里之外夺人性命的决定。来自华盛顿大学的茱莉·卡彭特曾进行过一项研究,发现在战场上,士兵与扫雷机器人所建立起来的感情远超一般用户和工具之间的关系。

但是,最大的隐患还是来自于自主机器本身。人们已经开始担心如何控制管理机器人的自主权。对于在战地上冲锋的军用机器人,问题在于能否将做决定开枪射击的权力下放到机器。许多强硬派人士已经开始质疑,人类究竟是否还能拥有投反对票的权力。

准自动机器人已经问世。以色列的哈比无人机可以自动飞入巡逻区域,侦查周围是否存在敌军的雷达信号,一旦发现信号源,便立即开火摧毁。诸如美国密集阵近程防御武器系统或以色列的“铁穹”反火箭弹系统会自动延迟发射导弹,人类根本无法进行干预。三星Techwin所出品的SGR-A1机器人系统可以替代朝鲜半岛边界纷争的前线士兵,它可以侦查到人类进入设定区域的痕迹,并向其索取密码获得准入权,甚至在经过设置后,它也可以进行自动射击。

那么,底线何在?机器人专家与伦理专家罗恩·阿尔金提出,要让机器人具备一套道德准则——也就是一套体现人为意识的规则——将这些规则直接植入机器内,确保其所作所为完全符合国际人道主义法。

机器人要道德有何用?

军用机器人有能力选择并摧毁打击目标,因此不能将它们与安全和责任的概念脱钩。编程中必须明确,对于包括“友方”目标、平民与休战状态的敌军等“值得道德考虑”的目标需要手下留情。也可以在机器人中设置一张对手清单,在清单范围内,如果能卸去对方武装就不要赶尽杀绝。机器人必须选择一个行动模式,在不同模式下遵守相应的道德规则。工程师将其称为“人工道德代理”。不过问题就在于机器人的灵活性到底有多强。当机器人仅在一定的地理范围内活动时,其行为完全受程序员与设计师的控制,他们可以提早预判各种情况,将相关应对措施写入机器人的程序内。这种机器人属于在“操作上道德”。

机器人本身是无需对自己进行道德评估的,不用判断行动所产生的后果。该类机器人不需要在毫秒之内就要为某个情况挑选道德规则,也不会面临数条相抵触的规则。

加州州立理工大学的“道德与新兴科学”组织向美国海军提交了一份报告,当中写到,单靠达到“操作上道德”是远远不够的。在复杂环境下,机器人系统可能会因为内部过于简单的结构而在不可预知环境的影响下崩溃。研究人员指出,机器必须内置“功能性道德”,它们需要拥有自主能力进行道德判断。但是,该类项目研发也引发了不小的难题。该学术团体着力将最简单的“道德”规则——机器人三定律写入机器人程序内。机器人三定律指:1.机器人不得伤害人类,或因不作为使人类受到伤害;2.除非违背第一法则,机器人必须服从人类的命令;3.在不违背第一及第二法则下,机器人必须保护自己。很明显,机器本身不清楚什么行为会伤害人类,因此这些规则的效力是有限的。

有人提出了另一方案:抛弃康德所谓的“定言命令”,使用所谓“自动道德观”。但是,这一概念放在机器人的例子当中行不通。机器人既无意志也无意愿,好坏也无从谈起。其他研究团队建议索性放弃将道德植入机器人软件的想法,而是要使用“奴隶道德”将军用机器人定性为完全服从的机器。这种看似保险的做法实际上会影响机器人的工作效率:军用机器人的价值在于其快速的行动和反应能力。

有些哲学家提出了另行方案。他们认为通过学习算法、使用情感探测器和了解社会机制能够帮助提高机器人的道德感。但是,计算机科学家尚不清楚这一体系能否进一步提高机器人的情商、认知水平、道德判断与意识。

(冯素雯/译,本文由《上海交大巴黎高科评论》提供中文版权,欲了解更多科技评论请访问www.sp-treview.org)

[责任编辑:liuqiang]

人参与 评论

免责声明:本文仅代表作者个人观点,与凤凰网无关。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。

预期年化利率

最高13%

凤凰金融-安全理财

凤凰点评:
凤凰集团旗下公司,轻松理财。

近一年

13.92%

混合型-华安逆向策略

凤凰点评:
业绩长期领先,投资尖端行业。

凤凰财经官方微信

0
凤凰新闻 天天有料
分享到: