跳到主要內容

科技大觀園商標

分類項目
Menu

機器人倫理學專題報導:序言

103/10/01 瀏覽次數 4184
2014年5月,聯合國在日內瓦召開特定武器會議(Convention on Certain Weapons, CCW)。延續2013年11月的CCW會議,會中討論是否應該立法限制美國、英國、以色列、韓國等國開發殺戮機器人(killer robots,或稱致命的自主機器人lethal autonomous robots(LARs)),亦即那些自己可以選定目標開火,過程中不需操作人員下達指令的全自動化武器。會議聚集了來自各國的機器人學家,以及關心該議題的法律、社會等領域的學者,而許多國家也表達了官方立場。會中各代表表達的立場針鋒相對,支持殺戮機器人的一方認為,它們可以減低士兵上戰場而傷亡的機會,也不會違反現有的戰爭法律;而且,不像親臨戰場的士兵會因為生死交關的壓力導致錯誤判斷,或者基於恐懼、復仇心理而屠殺非武裝平民,機器人可以大量減少平民的傷亡,也就是說,殺戮機器人比人類更能遵守戰場上的倫理準則,這似乎是指派殺戮機器人上戰場1個很好的理由。

不過,也有許多人反對殺戮機器人的運用,而且還持續倡議要限制它們的研究發展。反對者提出的理由與上述的支持理由恰恰相反,首先,反對者認為,對於機器人技術的進步,不應該過度樂觀;從歷史上前例來看,許多高科技武器發明的時候,都有人預測它們能夠大幅減少傷亡,但是後來這些預言都沒有成真;其次,單就機器人技術而言,機器人很可能無法精準地判別目標,根本分不清楚目標是軍人還是平民,並且依照比例原則適當地使用武力,這麼一來,反而會造成更多無辜傷亡;另外,由於武器研發往往都是在暗地裡機密地進行,我們根本無從得知殺戮機器人的設計者,會讓它們遵從哪些倫理原則;最後還有1個重要的責任問題:即便機器人可準確達成目標,但是萬一當它犯錯的時候,該由誰來負起責任?是設計者、機器人自己?還是指派它們上戰場的人?

這個責任問題,挑戰了一般人對於機器的看法。許多工程學會的倫理守則都會告誡會員,工程師要對設計、製造出來的機器負責,要保障大眾的安全和福祉。正如同近年來不斷發生的汽車召回事件所示,我們找得到該承擔責任的廠商,要求其負起責任。但如果機器人有自主判斷和運作的能力,而不需要人類下達指令才行動,那麼,當機器人的判斷出狀況的時候,製造者是不是可以用「設計上沒有問題」的遁詞來推脫?而這正是殺戮機器人的反對者最在意的理由:殺戮是人類世界目前最為艱難的倫理決定,能完全避免自然最好,但若處在戰爭狀態,以致於無法避免殺戮時,人類可以把痛苦的抉擇,輕鬆地交待給完全不瞭解生命對於人類之重大意義的機器人,而沒有人需要為此負責嗎?這會不會成為戰場上逃避責任的方式?

在家用機器人市場已經隱然成形,軍事機器人也在發展中的此刻,對於機器人的應用所可能引發的問題,促成了機器人倫理學(robot ethics)的發展。倡議者認為,我們不只要反省機器人目前已經引發的問題,更需要未雨綢繆,在許多可能的倫理困境還未成真的時候,就應該事先考慮,甚至建立法律,以便規範機器人技術的發展。在國內、外企業界熱切關注機器人發展應用的此刻,本專輯選取了幾個機器人的案例,其中一些已經發生廣泛的影響,有些正在進行小規模的實驗,有些大致上還處於想像階段。藉由這些案例,我們將一同來思索機器人與人類共存的種種問題。
  •   機器人倫理學專題報導一 :無人機的警示
  •   機器人倫理學專題報導二 :人類如何看待家用機器人(上)
  •   機器人倫理學專題報導三 :人類如何看待家用機器人(下)
  •   機器人倫理學專題報導四 :照護現場的小海豹機器人(上)
  •   機器人倫理學專題報導五 :照護現場的小海豹機器人(下)
  •   機器人倫理學專題報導六 :性愛機器人進入性產業的倫理挑戰
     
(本文由科技部補助「新媒體科普傳播實作計畫─電機科技新知與社會風險之溝通」執行團隊撰稿/103年/07月)

責任編輯:楊谷洋|國立交通大學電機工程學系暨科技與社會中心智庫研究團隊
OPEN
回頂部