您的位置:首頁 > 資訊 > AGV資訊 > 正文

專家警告:一年之內(nèi)不禁止“殺手機器人”就來不及了

2016-06-26 10:51 性質(zhì):轉(zhuǎn)載 作者:騰訊科技 來源:騰訊科技
免責聲明:中叉網(wǎng)(m21363.cn)尊重合法版權(quán),反對侵權(quán)盜版。(凡是我網(wǎng)所轉(zhuǎn)載之文章,文中所有文字內(nèi)容和圖片視頻之知識產(chǎn)權(quán)均系原作者和機構(gòu)所有。文章內(nèi)容觀點,與本網(wǎng)無關(guān)。如有需要刪除,敬請來電商榷!)
隨著人工智能的發(fā)展,可以自主選擇目標進行攻擊的機器人正在迅速成為現(xiàn)實。在新技術(shù)的推動下,人類可能會放棄決定如何使用致命武力的控...

  隨著人工智能的發(fā)展,可以自主選擇目標進行攻擊的機器人正在迅速成為現(xiàn)實。在新技術(shù)的推動下,人類可能會放棄決定如何使用致命武力的控制權(quán)。完全自主的武器也被稱為“殺手機器人”,它們正在迅速從科幻作品走向現(xiàn)實世界。
  研究人員擔心在未來,事關(guān)生死的決定將由機器做出,超出人類的控制之外。造成過度傷害,或錯誤把平民當成攻擊目標的風險將會因此增加,而且還沒有人可以被問責。
  機器人缺乏真實的情感,特別是同情心,大量的決定將會在這種情況下做出。人類可以根據(jù)以往的經(jīng)驗和道德方面的考慮,逐個案例進行判斷,做出相應的決定。但是想把這種判斷方式復制到完全自主的武器上幾乎是不可能的,預編程的機器無法應對所有場景。
  把技術(shù)置于外交之上,將會帶來可怕的、空前的人道主義災難。
  自主武器可以在陸地、空中或海上開展行動,武裝沖突和執(zhí)法行動的方式可能會產(chǎn)生翻天覆地的變化。支持的一方說,開發(fā)“殺手機器人”是必要的,因為現(xiàn)代軍事行動非常迅速,讓機器人作戰(zhàn)可以防止士兵和警察遭受傷害。但它們對人類構(gòu)成的威脅,可能會比它們在軍事或執(zhí)法方面帶來的好處更多。
禁止研發(fā)“殺手機器人”的行動
  一些人指出,如果關(guān)于攻擊目標的決定不再由人類來做,世界將會變得非常危險。鑒于完全自主武器在道德、法律和責任上的風險,它們的研發(fā)、生產(chǎn)和使用現(xiàn)在就需要加以阻止,不能等待。而化解這種威脅的最好辦法,就是對無人操控的武器實施國際禁令。
  一些國家已經(jīng)在使用Reaper這樣的無人機在戰(zhàn)區(qū)開展任務。如果在激烈的戰(zhàn)斗中,出現(xiàn)了機器人非法殺人的情況,那應該由誰來承擔責任呢?人權(quán)觀察組織今年早些時候發(fā)布了一份報告,得出了一個非常令人不安的答案:沒有人。
該報告名為《殺手機器人問責機制的缺失》。該組織說,我們必須改變這種缺乏問責制的狀況,禁止研發(fā)和使用“殺手機器人”。
  專家警告:一年之內(nèi)不禁止“殺手機器人”就來不及了
  “不問責,意味著對今后的犯罪行為沒有威懾力,對受害者沒有進行補償,對肇事者沒有進行社會譴責,”該報告的主要作者、人權(quán)觀察組織高級兵種部研究員邦尼·多徹蒂寫道。
  機器人缺乏真實的情感,包括同情心。此外,對于它們殺死的人來說,生命具有怎樣的價值,沒有生命的機器是無法真正了解的。讓機器人來決定什么時候使用武力,是在剝奪人的尊嚴。國際法主張保護平民和士兵,只有當機器處于人類的控制之下時,國際法才能得到遵行。
  聯(lián)合國在日內(nèi)瓦舉行了為期一周的會議,討論殺手機器人的問題。至少有20個國家在會議上表示,攻擊目標的選擇應該由人類來負責。哈佛法學院在這期間發(fā)布了一份相關(guān)報告,獲得了很多人的支持,已經(jīng)有兩個組織在爭取禁止完全自主的武器。
  哈佛法學院的報告呼吁人類在科技高速發(fā)展的時代依然要保持對所有武器系統(tǒng)的控制權(quán),包括選擇攻擊目標、拯救生命、確保國際法得到遵守的控制權(quán)。
  “機器早就開始充當戰(zhàn)爭工具了,但是之前,它們的使用方式是由人類控制的,”邦尼·多徹蒂。“現(xiàn)在如果人類會放棄這種控制權(quán),把事關(guān)生死的決定交給機器,風險就太大了?!?BR>軍備競賽的威脅
  有些人支持讓機器人去打仗,以免人類在戰(zhàn)場上送命。但去年,1000多名技術(shù)和機器人技術(shù)的專家——包括科學家霍金,特斯拉首席執(zhí)行官伊隆·馬斯克和蘋果聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克——警告說,這種武器可以在數(shù)十年,乃至數(shù)年內(nèi)研制成功。
  在一封公開信中,他們表示,如果任何一個軍事強國推動自主武器的發(fā)展,“那么全球軍備競賽幾乎是不可避免的,這種技術(shù)軌跡的終點顯而易見:自主武器將成為明天的卡拉什尼科夫沖鋒槍?!?BR>  總部位于倫敦的“禁止殺手機器人”組織表示:有些國家正在賦予作戰(zhàn)武器更大的自主權(quán),這些國家包括美國、中國、以色列、韓國、俄羅斯英國。
  今年3月,五角大樓的一名高層官員透露了幾個不久前還屬于科幻作品的項目,其中包括可以躲避導彈的衛(wèi)星,自主飛行的F-16戰(zhàn)斗機,以及機器人海軍艦隊。
  盡管五角大樓不打算開發(fā)一種無需人類指揮就能開展殺戮行動的武器,但國防部副部長羅伯特·奧克暗示,如果用敵人研發(fā)出這樣的武器,情況可能就會改變。
  “如果我們的競爭對手更加愿意把生死大權(quán)下放給機器,隨著競爭的開展,我們就不得不做出最利于我們競爭地位的決定,”他說。
  奧克在五角大樓的工作之一是確保美軍保持技術(shù)優(yōu)勢,在他透露的一個項目中,空軍把一架F-16戰(zhàn)機改裝為一個半自主的無人戰(zhàn)斗機,與一架載人的F-35噴氣式戰(zhàn)斗機一同飛行。
  五角大樓的研究人員還正在開發(fā)一種小型炸彈,它搭載了攝像頭和傳感器,可以提高瞄準能力。其他項目還包括機器人艦隊,以及炮彈時速高達7250公里的電磁軌道炮等。(云開)

網(wǎng)友評論
文明上網(wǎng),理性發(fā)言,拒絕廣告

相關(guān)資訊

關(guān)注官方微信

手機掃碼看新聞