跳到主要內容

科技大觀園商標

分類項目
Menu

AI不中立?─探討AI偏見帶來的影響

107/04/27 瀏覽次數 8808
人們要求眼見為憑的「有圖有真相」,AI只相信「數字會說話」(圖片來源:geralt , pixabay)。人們要求眼見為憑的「有圖有真相」,AI只相信「數字會說話」(圖片來源:geralt , pixabay)。
 
大家對人工智慧(AI)的普遍印象,可能是理性、客觀,或不近人情。之所以會有這些印象,除了AI「冷靜思考下決定征服全人類」的電影層出不窮之外,還有很大的原因來自AI做出決定的憑據:數據(data)。當人們要求眼見為憑的「有圖有真相」,AI只相信「數字會說話」。冷冰冰卻比千言萬語更接近事實的數據,是AI的行動原則,也是我們大多時候相信AI能做出不帶偏見的決定的原因。畢竟,還有什麼能比數據更客觀呢?
 
然而,近期專家發現,AI其實也會帶著有色眼鏡看人。如果我們一昧相信帶有偏見的AI提供給我們的資訊,可能會不知不覺間成為種族歧視和性別歧視的幫兇。事實上,Google的AI研究業務負責人約翰.詹南德雷亞(John Giannandrea)即表示,比起AI淘汰人類,他比較擔心有偏見的AI帶來的社會隱憂。
 
在探討不客觀的AI是不是嚴重威脅前,我們先來看看AI的有色眼鏡到底從何而來。
 
上樑不正下樑歪?
 
AI不是一開始就有歧視,而是學習而來的。
 
現今的AI大多採用監督式學習(supervised learning)。也就是說,它會依照工程師提供給它的訓練資料(training data)推斷出規律,再把規律套用在未知的資料上。打個比方,將紅底黑斑的蛇標示有毒,紅底無斑的蛇標示無毒,綠底黑斑的蛇標示有毒,然後把這筆資料給AI,則AI可能會將從未看過的黃底黑斑的蛇判為有毒。
 
這套演算法的原則是由AI自行進行學習,乍看之下很有效率。不過,一但提供的資料不夠全面,或工程師沒有想方設法避免歧視,AI推導出的結果便很容易帶有偏見。
 
其中一種因為訓練資料有所偏頗,導致AI帶有歧視的程式是臉部辨識系統。麻省理工學院(MIT)的研究員喬伊•布奧拉姆維尼(Joy Buolamwini)指出,由於提供給AI訓練資料不夠多樣化,有三家著名科技公司的臉部辨識系統在分辨深膚色女性時都有20%以上的出錯率。相反的,可能因為AI一開始訓練時即得到大量相關資料,該三家系統在辨別淺膚色男性時只有0.8%的出錯率。另一個著名的例子是在2015年,Google的影像辨識系統將非裔網友標示為「大猩猩」,隨後為此道歉。很明顯的,兩個例子裡辨識系統皆難以辨別出深膚色的人種,使得AI的推斷結果帶有種族歧視。
 
然而,即便想辦法提供多樣化的資料給AI,人類文化裡無形的歧視,一樣會培育出有偏見的AI。電腦科學家喬安娜.布萊森(Joanna Bryson)和同事研究發現,即便他們沒有特別在提供的訓練資料(以文字為主)上標示關聯性,AI會自動判定白人名字和愛情、微笑等正面字彙有關,有色人種的名字則和癌症、失敗等負面詞彙有關──明顯是受到人類呈現在文字裡有意無意的歧視影響。
 
除此之外,冷冰冰的數據也會讓AI帶有歧視。布萊森表示,由於現實社會中牙醫助理和圖書館員由女性擔任的比例較高,她們發現AI會自然而然的判定這兩種職業和女性的關聯性較強,形成無形的性別歧視。波士頓大學(Boston University)和微軟的科學家也提到,現實生活中的性別歧視和職業上的性別不平等,導致AI判定擁有男性化名字的人比擁有女性化名字的人更會寫程式。
 
如此看來,AI也不是那麼理性客觀,甚至可以說非常容易就「學會」對人不對事。但是,僅僅是有偏見的AI,能對我們生活造成什麼影響呢?答案是:處處有影響。
 
偏見的AI如何影響我們的生活?
 
AI早在不知不覺間滲入人們生活的各個層面。除了社群網路、服務業、交通等為人所知的領域外,如今公司徵才、金融業、司法機構的背後也可能有AI介入。公司用有偏見的AI決定不要雇用女性當程式設計師,銀行用有種族歧視的AI決定不要貸款給有色人種,監獄用不客觀的AI決定不要給囚犯假釋等等情況皆有可能發生,或是正在進行。事實上,非營利網路新聞媒體ProPublic即報導美國司法機關使用名為COMPAS的AI來預測犯人的再犯率,並依結果來判定要不要假釋囚犯。ProPublic指出,由於該AI對少數族群帶有偏見,可能使司法機關在無意間迫害弱勢族群囚犯。
 
由此可知,有偏見的AI不但影響了我們的日常大小事,還很有在我們毫無察覺的情況下經由使用該AI,或被該AI擅自貼標籤,而使他人和自身受到不平等的對待。
 
消弭AI偏見之路
 
既然有偏見的AI是個隱患,專家們自然想要排除它的歧見。有的人去除資料裡不必要的元素(如讓AI篩選履歷書時,去掉性別和種族等個人資料),有的人在AI的判定結果上添加條件(如讓AI過濾應聘者時,能遵守性別配額),還有人致力於推動訓練資料的透明化,讓他人來審視該資料是否有造成AI偏見的可能。
 
然而,即便不知道種族或性別,AI還是可以藉著其他因素(譬如姓名、住處)辨別男女和人種。如果讓AI保障女性或有色人種的錄取率,則可能會引發對男性不平等的爭議。訓練資料的透明化更由於各家AI開發公司不想外洩商業機密而難以執行,即便公開,也可能因為程式太難被外人理解,無法起到監督的作用。
 
在消除AI的歧視的路上,可說是困難重重。即使如此,我們還是應該不吝於支持、推動創造毫無偏見的AI,才能真正保障我們的權益。
 
(本文由科技部補助「新媒體科普傳播實作計畫」執行團隊撰稿)
資料來源
  • 原標題:當AI也開始戴起有色眼鏡─有偏見的AI是如何產生,又會造成什麼影響?
OPEN
回頂部