跳到主要內容

科技大觀園商標

分類項目
Menu

機器人倫理學專題報導(三):人類如何看待家用機器人?(下)

103/10/01 瀏覽次數 6699
當機器人越來越容易讓人類與之建立情感,我們不得不注意隨之而來的危險,例如:由於機器人或寵物不像一般人類會對我們的要求提出反駁與反抗。(圖/James Maskell,CC BY-NC-SA 2.0)當機器人越來越容易讓人類與之建立情感,我們不得不注意隨之而來的危險,例如:由於機器人或寵物不像一般人類會對我們的要求提出反駁與反抗。(圖/James Maskell,CC BY-NC-SA 2.0)
 
人類與不像人的機器人真的可以建立情感關係嗎?讓我們來看幾個例子。有種多腿的「掃雷」機器人,其運作方式是透過用這些「腿」去踩踏地雷,藉由「犧牲」腿來觸發地雷並使其失效;在測試階段,這個機器人運作良好,接連找到許多地雷,也報廢了好幾隻腿;然而,就在任務完全結束──機器人的腿全部「用掉」──之前,操作員決定停止繼續遙控機器人。為什麼?原因是,操作員無法忍受持續看到機器人用僅剩1條腿「拖行」的畫面,也覺得在讓機器人「失去」最後一條腿過於慘忍。換句話說,一種感情關係──同情──在掃雷機器人與人類操作員之間建立了起來。
 
在機器小狗 AIBO 上,這個現像更為明顯,即使 AIBO 的實際外觀相當「機械化」;研究者檢視網路上 AIBO 使用者社群的貼文,發現使用者的遣詞用字透露出一些傾向:第一,經常會描述 AIBO 動作帶有「情感」,例如:「牠沮喪地低下頭」;第二,不把 AIBO 視為技術產品,而是真正的寵物,例如:「牠是我的寵物,不是什麼很酷的科技玩物」,甚至有人會說「我很抱歉今天踢到牠,牠一定很痛!」。即使是相當習慣以「機器」的角度來處理與談論機器人的機器人學家,仍然不可避免地──但通常是無意地──使用某些情感或情緒字眼來形容他們正在研發的機器人,彷彿這些機器人真的具有「靈魂」一樣(Scheutz,2002)。這些都意味著,人類對於機器人具有某程度的「同理」,也因此會以情感的方式來理解機器人、以及建立與機器人的關係。

當機器人越來越容易讓人類與之建立情感,我們不得不注意隨之而來的危險,例如:由於機器人或寵物不像一般人類會對我們的要求提出反駁與反抗,因此在未來,我們很可能寧願與機器人相處而不願意和真實人類交往,或者我們寧可以要一隻不需要花時間訓練便溺行為的機器寵物而不要真的小狗或小貓,換句話說,人類與機器人或寵物的關係,很可能威脅到人類與真實人類或寵物之間的關係。

另一方面,科技社會學家 Sherry Turkle 曾經出書討論,認為當代社交媒體科技雖然讓我們便於聯繫彼此,但實際上卻讓我們活在自己的小世界,缺乏與真實人類面對面的相處,反而是被科技圍繞。在 Turkle 的說法裡,科技尚且是個「媒介」,因此我們不難想像,一旦科技確實成為相處的「對象」──就像(未來的)家用機器人──我們又會如何將自身隔離於真實關係之外。

除此之外,我們對於機器人投射情感,很可能讓我們信任機器人遠超過信任人類,因為我們通常不會假設機器會騙人,這將導致未來的「銷售人員」或「法庭證人」可能多是機器人且鮮少人類,但我們卻對於機器人可能內建「詐騙」機制未有所覺。實際上,人類具有同理心的情感特質,正是減緩人類詐欺行為的機制之一,因為我們能夠設想「如果自己受到欺騙感覺如何」,然而這種心理機制在機器人中可以說完全沒有,因此反而更容易提供長機器人「不誠實」的可能性。

那麼,要如何避免這個趨勢?機器人學家 Matthisa Scheutz 提供了幾個方案。(一)嚴格地把某些道德價值「寫入」機器人的程式當中,例如「誠實不說謊」,不過,這可能遭遇倫理學一直以來的重大困擾──道德價值排序問題:你讓猶太人躲藏在你的家中,但當納粹敲你家門追問是否藏匿猶太人時,你應該說謊救人還是據實以告?(二)讓機器人與人類同樣具有同理心,因此會「設身處地」感到違反道德價值的罪惡感,因而避免犯下諸如欺騙的行為,這或許是最為理想的狀況,不過以目前機器人學的發展狀況來看,這個方案或許仍需要一段不短的時間才可能實現。(三)可能是目前最為可行的方案:在設計時,不只盡量避免擬人化,更要賦予機器人某些足以提醒人類「我是無生物」的特徵,透過這樣的方式,盡可能避免讓人類不自覺地與機器人產生情感關係,從而避免相關倫理疑慮。總之,不論是以何種方式,現在已是必須思考這些問題與採取相關行動的重要時刻,唯有審慎因應可能的未來,才有可能擁有一個理想的未來。

責任編輯:林宗德|國立清華大學通識中心暨社會學研究所
資料來源
  • 科技部補助「新媒體科普傳播實作計畫——電機科技新知與社會風險之溝通」計畫
OPEN
回頂部