5月底,聯合國人權理事會在瑞士日內瓦開會,緊急叫停美、韓、俄、英、德、日等國各國研發“自動殺人機器人”的軍備競賽。
而在2008年,3臺攜帶武器的“劍”式地面作戰機器人,被美軍部署到伊拉克后,未開一槍就被撤回來了。因為,它們將槍口對向它們的人類指揮官。
機器人會不會向人類倒戈一擊,埋葬我們這個親手創造出它們、軀體卻弱于它們的智慧種族?
自從1950年科幻巨匠阿西莫夫寫就《我,機器人》之后,這一直是人類的夢魘之一。從《終結者》、《黑客帝國》、《機械戰警》、《太空堡壘卡拉狄加》等影視作品中,我們可以親眼目睹可能成真的噩夢。

自主的機器人成為戰爭工具,難以保證不濫殺無辜,很可能會突破人類的倫理、道德底線。
聯合國人權理事會特別調查員克里斯多夫海因斯認為,機器人沒有感情,不會理解和辨別人類的情感,諸如復仇、驚慌、憤怒、困惑、偏見或者恐懼,并且機器人是無法識別眼前被殺戮者是敵是友。
“而且,機器人無法為自己的行為負責,不應擁有決定人類生死的權力。”
在《我,機器人》中,為了防止機器人反噬人類,阿西莫夫提出了“機器人三定律”:一、機器人不得傷害人,也不得見人受到傷害而袖手旁觀;二、機器人應服從人的一切命令,但不得違反第一定律;三、機器人應保護自身的安全,但不得違反第一、第二定律。
“其實,如果武裝機器人走上戰場,就破壞了‘三定律’中‘不得傷害人’這一天條了。”著名科幻作家、《中國軍隊》雜志編委韓松說。
事實上,自主的人工智能控制的武器,已經造成了巨大慘案。《軍事世界》主編陳虎告訴記者一段歷史——“1988年7月3日,游弋在波斯灣的美國海軍‘文森斯’號巡洋艦,發現一架伊朗民航的A300客機將飛過其上空。因為艦上防空系統當時處于全自動模式,雷達將客機識別為伊朗空軍的F-14戰斗機,因此自動發射了‘標準’防空導彈,直接擊落客機,機上290人全部遇難,包括60多名12歲以下的兒童。”
事實上,目前還沒有一套控制自動系統出錯的有效措施。一旦機器人士兵的程序出錯,或者被人惡意篡改,很可能造成血流成河的慘劇。
因此,美國海軍的研究小組在一份研究報告中,建議為軍事機器人設定嚴格的設計和使用“緊箍咒”,否則整個世界都可能毀于他們的鋼鐵之手。








