携带机枪的杀人机器人THeMIS。
致命性自主武器系统是能够在没有人类决策的情况下,自主进行选择,完成寻找目标、定位、杀戮敌人这一整套工作的AI系统。将该系统送上战场,意味着机器人可不受人类干涉,自己做出生死攸关的决定。
科技日报北京7月19日电 (记者张梦然)据美国福克斯新闻网18日消息,包括美国太空探索技术公司(SpaceX)创始人埃隆·马斯克、谷歌深度思维(DeepMind)创始人在内的2000多名人工智能(AI)领域专家,共同签署了《禁止致命性自主武器宣言》,宣誓不参与致命性自主武器系统(LAWS)的开发及研制。这也是迄今针对“杀手机器人”最大规模的一次联合发声。
但其支持者认为,现代作战有快速移动的特点,用机器人代替人类参战可以减少士兵伤亡;而另一方一直激烈反对,表明“杀手机器人”对人类的威胁将大大超过其为军事或执法行动带来的好处——LAWS可能会发生故障失控,也可能落入不良分子手中被恶意操纵,如果其选定目标时没有人类决策,将导致人类的世界危险丛生。
鉴于此,日前在瑞典斯德哥尔摩举办的2018国际人工智能联合会议上,共有来自90个国家、160多家AI企业或机构的2400多名AI领域学者,共同签署了《禁止致命性自主武器宣言》。宣言指出,LAWS会在脱离人类控制的情况下选择目标并实施攻击,这带来了道德及现实层面的双重危险,人类的生命权决不能交给机器,而且,此类武器的扩散将对所有国家、个人造成极大的威胁。
该宣言由位于波士顿的生命未来研究所牵头,签署者包括曾“敲响了人工智能警钟”的埃隆·马斯克、DeepMind的三位共同创始人、Skype创始人以及全球多位顶尖AI学者等。宣言签署者们希望,这一行动能促进立法者颁布正式的国际协议。
生命未来研究所所长表示,LAWS其实与生物武器一样“令人厌恶且不稳定”,应采取同样的方式处理。
人工智能或许是未来对人类威胁最大的产物,正所谓福之祸所依!