聊天機器人歧視言論又一樁,避免AI偏見企業該提前注意哪三件事?

日前,南韓新創公司研發的聊天機器人露達(Lee Luda),因為被揭露針對少數族群發表歧視性言論而引發輿論嘩然,導致服務被迫暫停。這並不是第一起聊天機器人因為不當言論而被迫停止服務的案例,隨著AI應用越來越為廣泛,相關歧視與偏見問題也層出不窮,究竟企業如何提前部署和遵守以避免偏見的產生?

日前,南韓首爾新創公司「Scatter Lab」所研發的聊天機器人露達(Lee Luda),被揭露針對少數族群發表歧視性言論而引發輿論嘩然,服務因此被迫暫停。另外,由於許多用戶並未察覺自己的私人對話被納入資料庫中使用,更有使用者發現露達會在回應時,透露姓名或是銀行帳戶等個人資料,而引發侵犯隱私的爭議,除了可能面臨用戶集體訴訟,政府也將展開調查,釐清該公司是否違反《個人資訊保護法》。隨著人工智慧的應用場景越來越常見,企業有必要了解人工智慧所帶來的風險,並提前部署與遵守相關約定。

透過社群軟體對話學習的機器人

露達是個模擬20歲女大學生的聊天機器人,主要運用深度學習技術,以南韓最流行的聊天軟體「KakaoTalk」中的100億則真實對話加以訓練或利用,因此露達能掌握各種網路縮寫與流行語,其自然的對話回應讓使用者印象深刻。2021年1月11日在Facebook的Messenger上推出,隨即吸引超過75萬名用戶。爭議爆發後20天內便從Messenger上移除,研發公司 Scatter Lab 也發表道歉聲明,強調露達的歧視言論不代表公司立場,並讓露達在重新學習社交及修正弱點後推出。

露達並不是第一個因為歧視言論而被下架的機器人,微軟 ( Microsoft )曾在2016年設計出一款名為Tay的聊天機器人,它主要是藉由推特 (Twitter) 用戶的互動自主學習,能在每次的對話中,改善自己的回話。為了讓Tay 更貼近人類的對話,微軟也開放Tay與世界各地網友互動,沒想到24小時不到,Tay卻被網友教成一個滿口種族歧視的新納粹主義者,讓訓練團隊哭笑不得。

層出不窮的偏見案例

除了這兩起聊天機器人爭議,自AI開始被應用以來,被指控性別、種族歧視的事件層出不窮,例如Google、Amazon等企業皆曾在AI應用上發生歧視的爭議。2015年,Amazon便曾在研發的AI履歷篩選機制中,被發現女性履歷會在某些技術性職位的應徵上予以扣分,即使工程師針對其偏見進行修正,但因為Amazon無法保證不會再出現其他歧視問題,該計畫也在2018年中止。

Apple ( 蘋果 ) 與高盛 (Goldman Sachs) 共同推出的 Apple Card,雖然被認為是「史上最成功的信用卡」,卻因為被用戶舉發演算法含有性別歧視,在條件相當的情況,女性的信貸額度卻遠低於男性,不僅在推特 (Twitter) 上引發熱議,更引發一連串公關災難,紐約金檢局 ( NYDFS ) 更展開調查,追究法律責任。

消除人工智慧偏見的三種建議方法

面對越來越多的AI應用,以及全球司法對於 AI 人工智慧關注,企業有必要在演算法的設計、開發、維護上提前部署和遵守以避免偏見的產生。專注於AI數據處理服務的社會企業:若水國際,針對漸受重視的偏見議題,認為企業有必要在 AI 數據與演算法的應用上做提前部署,並在《2021 AI數據處理實戰攻略:三招助你消除人工智慧的傲慢與偏見》一文中提出以下建議:

1.依照具體的公平目標來設計 AI 模型

文中引用英國艾倫.圖靈研究所(Alan Turing Institute)研究員盧梭(Chris Russell)的說法:「促進演算法公平性的重大挑戰之一就是定義公平的真正意義,」以及如何用數學或演算法來定義「公平」?「目前文獻中有超過30種公平的定義,」盧梭說。

幾個常見的方法如「屏除差異性」(Group Unaware)、「人口均等」(Demographic parity)、「機會均等」(Equality of Opportunity)等。屏除差異性是將敏感屬性的集合從數據中移除,使其無法帶來影響,。但現實例子中,假使故意不輸入性別資料算出信用評分,其他輸入的條件中,可能也會包含性別相關的資訊。人口均等則是指對於A及非A兩個群體來說,被分類到各個類別的比例都是一樣,例如當團體中的男女比例為2:1,可以獲得貸款的男女比例也要趨近2:1,但此方法被認為整體而言公平,卻對個體不公平。

真正的公平應該是每個個體都具有同等地被正確分類的機會,例如判斷是否還款的「低風險」預測率不應該依據種族或性別等敏感屬性,這一原理也就是監督學習中的機會均等(equality of opportunity in supervised learning)

在考量產品的潛在影響時,應該思考以下問題:它代表誰的觀點?代表什麼類型的數據?是否有其他遺漏的因素?這項技術可能產生什麼結果?是否會因使用者和社群的差異而有不同結果?是否可能出現其他偏見、負面經驗或歧視性結果?在討論如何改善AI的公平性時,具體細節往往有賴不同學科間的跨域整合,若能將社會科學家、人文學者等專家拉入討論,將有助於獲得多元觀點。

2.採用具有代表性的數據庫來訓練和測試模型

抽樣偏差在統計上是常見的錯誤,也是各種研究必須盡力避免的偏差。訓練AI模型同樣也是如此,必須採用真實數據,並力求訓練數據中多樣性和代表性,避免忽略或扭曲特定性別、宗教、種族等群體的影響力,進而影響預測結果。例如,研究顯示少數族群女性的臉部辨識誤判率最高,原因可能是缺乏該族群的數據。當某個群體的代表性不足,可考慮加權;但當加權幅度越大,越容易放大某些雜訊,更可能導致最後出現極度偏差的結論。

視覺化、集群分析、數據標註皆有助於評估不同特徵、標籤和群體間所隱含的偏見或歧視。為了確保標註的穩定、多樣和正確性,建議給予標註團隊清楚明確的任務、獎勵和反饋的機制。

前IBM Watson視覺辨識產品經理蘿絲威格(Alyssa Simpson Rochwerger)對於AI偏見的感觸特別深,她的團隊曾經在產品推出的前夕,發現其中一個訓練模型的標籤居然以「魯蛇」標註了大量的殘障人士,導致從工程師到行銷,都被拉來梳理成千上萬個數據標籤和百萬張圖像,更在之中找出好幾個潛在危機。

3. 檢查 AI 系統的偏見

若想了解系統弱點,以及評估誰可能受到影響,建議可組成多元、可信賴的測試小組對系統進行對抗性測試,並在單元測試中納入諸多極端個案。為求公平,有些研究者建議對於所有的群體,模型都必須滿足相同的預測值,或是擁有相同的偽陽性率(機器說有病,但真的沒病)和偽陰性率(機器說沒病,但其實有病)。

Fiddler Labs 共同創辦人兼財務長 Amit Paka 則說:「然而要打開AI的黑盒子,深度抓蟲,不妨考慮向 Explainable AI 求助。」他以Apple Card的爭議為例說明 :「信用卡的審查決定取決於一些條件(如年收入、信用評分等),在沒有Fiddler的傳統環境下,很難或幾乎不可能解釋每個變項為何又如何影響決策結果,」Explainable AI的技術則讓每個決策背後的原因無所遁形,還附帶因素分析。「例如,年收入可能在決策上有20%的正面影響,反之信用評分則有15%的負面影響。」

了解原因後,開發者能在知道問題後修正偏見,也遵守監管單位對AI決策過程須透明、能理解的要求。不僅是對使用者盡到告知義務,也有助於建立用戶信心,一旦發生發生類似公關危機,及相關責任時有所憑據。

執行者也要認知到無法滿足所有人,因此務實鎖定目標年齡層、族群、語言等,力求公平,持續追蹤,並根據使用者的使用方式,不時更新訓練和測試的數據庫。避免對不同群體套用不同模型,以免導致分析或公關上的災難。