没有恐惧和复仇欲望
2012年前,美国将投资40亿美元研究“自主系统”,“自主系统”是军方用来称呼机器人的术语。这个自主系统的基础,是机器人不会像前线士兵那样有恐惧和有复仇欲望。
美国海军已聘请一名搞机器人研究的英国专家,为他们提供制造机器人方面的建议,确保机器人不会违反日内瓦公约。
早在1988年,美陆军就公布了一项多维机器人战斗群的方案。该方案确定,要在21世纪使美军每一个集团军都拥有一支由4个机器人地面车辆营、一个机器人飞机营、一个机器人侦察与空中布雷营、一个机器人定向能武器营和一个机器人勤务支援营等组成的机器人战斗群,使之具有侦察、干扰、布雷、维修、运输、常规攻击、定向能攻击等多维的作战能力,以适应未来高强度、高对抗性的作战需要。
机器可以比人类更守规矩
有关伊拉克战争产生的作战压力研究,使五角大楼首脑们颇伤脑筋。研究显示,比例很高的前线士兵都支持对敌军俘虏施加酷刑和惩罚。
替美国陆军设计软件的佐治亚理工学院计算机科学家罗讷德·阿金写了一份报告,报告认为机器人“在战场可以比人类士兵更遵守道德”。
他说,机器人“不需要保护自己”,以及可以把机器人“设计成没有情绪,从而不会导致它们判断失误,或导致它们对进行中的战斗感到愤怒和沮丧”。
美国已在伊拉克和阿富汗使用无人驾驶飞机,还使用机器人来拆除路边炸弹和其他土制爆炸装置。上月,美国陆军收到一件新货,它是由英国防务公司QinetiQ一个美国附属公司制造的新机器人。该机器人懂得使用各种东西,包括小豆袋、胡椒喷粉、高爆炸力榴弹和7.62毫米口径机关枪。但这类机器人全都是由人类遥控的。
研究者现正研究机器人士兵,它们可以辨认目标、武器,区分敌人部队例如坦克或武装士兵,以及软目标例如救护车和平民。机器人士兵的软件,将含有各种作战规则,这些规则都遵守日内瓦公约,会告诉机器人何时开火。 罗勇
五角大楼近日聘请精通制造机器的伦理问题方面的专家帮助把关,以防止制造出“未来战士”式的不懂是非、不加区别地杀人的战场机器人。