跳到主要內容

科技大觀園商標

分類項目
Menu

殺人機器人合倫理嗎

102/12/17 瀏覽次數 17213
2013年最大規模之國際機器人展,於11月份在日本東京盛大展出,活動吸引了來自12國、334家企業參加;當中最受矚目的,即是能自行判斷後決定行動的「自律型」機器人。而這類機器人,已開始被各國軍方用於防備或偵測方面,未來更有可能主動發動攻擊,也因此不少專家學者開始憂心:具有殺人功能的機器人,因無法理解生命的意義,最終可能將危害人類生存;故聯合國乃公開呼籲世界各國,在殺人機器人目前仍處於研發階段時,同意暫停研發殺人機器人,以讓大家有時間考慮各種可能產生的後果或及早立法約束管制。

「殺人機器人」如果成真,未來戰爭之形態也許會有很大的改變。以現今技術來看,製造出足以在戰場中執行任務的高度自主性機器人,其難度相當高,短期內不至於會發生科幻電影中機器人大戰的場景,但有鑑於可以減少人命的損失與市場需求,此類型機器人研發有其驅動力。而將機器人引進戰爭、進而殺人,會不會有道德與法律上的問題呢?機器人是設計來協助人類,理應維護人類的安全,而將機器人使用於戰場,在觀念上挑戰了機器人不得傷害人類的設定,此外,基於機器人辨識與判斷能力的限制,在執行任務時,也可能誤傷友軍、平民或已投降的敵軍,而如此的失誤,責任歸屬又為何?另若不是在戰場上,而是將機器人使用於警戒、維安、偵防的工作,會不會有類似的狀況呢?由此我們來談談機器人介入人類活動中的倫理議題。

在可見的未來,包含可能的殺人機器人在內,勢必會有更多各種類型機器人進入人類生活各個範疇,也因此包括歐美、日本、韓國等機器人學界均討論到,當有一天社會進入到人與機器人共處的時代,我們是否應建立相關法律或是會有因應的倫理觀念產生?

反之討論,人類真的需要針對機器人考慮倫理議題嗎?機器人是機器,並沒有意識吧,科幻電影、小說中具有意識的機器人,在某種意義上來看,應該算是靈魂鑲嵌在機器的軀體裡,不能看成是機器人吧,既然機器人沒有意識,也就不會自覺地去做些什麼,倫理議題從何而來?

如前所述,若有天機器人負擔起警察或軍人的任務,當它面對可能的搶匪或敵軍時,開槍的對象與時機如何界定,倫理議題是會產生的,但需要因應的應是設計者,包括來自她/他本身及社會的倫理觀念,進而是如何撰寫可執行的倫理程式,也就是說如何精確地將倫理觀念實踐為機器人電腦中的程式,例如說,如何將對方有敵意且已有開槍意圖的狀況寫成電腦程式,敵意如何判斷?

開槍的意圖代表所持槍枝面對對方的角度是多少?甚或如何判斷那是槍、或是其他的致命武器等等?基於機器人的可移動性與自主性,遠不同於其他所使用的槍枝、武器等,它可以在內建程式的判斷下自行執行一系列的指令,當然會產生較大的影響與後果,而這些都是必須是使用者來承擔,畢竟處罰機器人的意義不大。在美國,其討論許久的槍枝使用問題,在持槍殺人的案例裡,到底是人殺人、槍殺人、還是人加槍殺人?

如果以機器人為對象來討論,這之間的倫理議題會更加複雜,而這也是我們於尋求機器人在人類社會中更大活動空間與更多的任務考量時,無法逃避的課題。艾西莫夫所提出的機器人三大定律算得上是第一份人與機器人的協定,從這份協定開始,人與機器人間確實需要好好地再次界定與規範,而隨著機器人的一路演進,這也會是個動態的演變過程。(本文由國科會補助「新媒體科普傳播實作計畫─電機科技新知與社會風險之溝通」執行團隊撰稿/2013年/11月)

責任編輯:黃承揚|英商牛津儀器海外行銷有限公司

OPEN
回頂部