据德国《每日镜报》网站11月13日报道称,在不久的将来,完全自主行动的杀人机器人将在战场上决定人们的生死。关于禁止或者至少是限制此类武器系统使用的讨论近年来一直没有停止,但至今仍毫无结果。联合国近期开始在日内瓦就此进行讨论。
什么是杀人机器人?
它的正式名称为“致命自主武器系统”。目前还没有普遍有效的定义。联合国和国际红十字会是这样解释的:它无需人类的帮助就可以确定目标、发动攻击并清除目标。换句话说,一旦编好程序,这些武器系统可以独立分析数据,导航至作战地区并使用机关炮或火箭等武器。近年来人工智能领域的巨大进步构成了杀人机器人发展的基础。
已经在使用的无人机目前还是由士兵操控的,因此它(还)不是杀人机器人。尽管距离它独立操作似乎并不遥远。
发展到何种程度了?
负责军备的俄罗斯副总理罗戈津今年春天发布过一段视频,里面可以看到《终结者》似的类人杀人机器人。这更多地属于宣传范畴。外观是否与人类相像一点都不重要。人权观察组织的专家认为,“美国、英国、中国、以色列、俄罗斯和韩国开发的武器系统自主性都在增大”。目前已经有原型机在使用当中。
支持者辩称,它将令军人的危险最小化。但恰恰这点可能会导致门槛的降低并令战争增多——从而导致更多的平民伤亡。人们已经可以在远程操控的无人机的使用中看到这样的发展。
后果责任谁来承担?
这是与杀人机器人密不可分的一个根本性的伦理问题。合乎伦理和道义的行动,善与恶、对与错的区分,对后果的评估,对自身行为责任的承担,所有这些在未来战争中都不存在。机器人虽然有人工智能,但却没有怜悯或悔恨等情感,它没有任何的愧疚感。对于适度等概念它无从下手。但这却是写在所谓的战争法当中的:冲突各方必须避免不必要的破坏并避免给对方带来不必要的伤痛。必须善待平民、受伤、无作战能力和被俘的军人。专家认为,这是无法编入程序当中的。2013年时,政策专家在给联合国人权委员会的一份报告中就警告说:这些“不知疲倦的战争机器”可能会令武装冲突变成无休止的战争——外交将没有可能来终止专门用来在即便是毫无希望的情况下也继续作战的机器的杀戮。
法律规范如何确立?
到目前为止,没有。本次联合国会议也不会立法,它只会在一份“政治声明”中摸索其政治、伦理和法律上的空间。禁令不在讨论范围之内。
由于这些系统目前实际上还不存在,德国和法国一起建议先确定自主武器系统的定义。包括军工代表在内的一个技术专家小组将对新武器的风险进行说明。“国际停止杀人机器人运动”的代表认为这完全不够,必须提前对这些武器进行禁止。
只有19个国家要求颁布禁令。在幕后阻挠的恰恰是在将人工智能与作战装备相融合方面领先的国家。最近,有100多名专家在一封公开信中写道,杀人机器人是在火药和核弹之后的第三次作战革命。如果新武器落入暴君和恐怖分子手中,等待人们的将是彻底的恐怖。
_____________
请加入我们的Facebook、Twitter和G+,或者新浪微博获取最快资讯,我们的微信订阅号是:sgnypost