萬萬沒想到,人工智能竟存在五大“偏見”
來源:互聯網我們傾向于認為機器,尤其是智能機器,都有那么點高冷且保持中立。我們相信,無人駕駛汽車在生死決定之間不會偏向于行人或者司機任何一方。同時我們信任執行信用評估的智能系統將忽略真正有影響力的指標之外的所有事情,例如收入或FICO分數。而且我們的理解是,學習系統會永遠忠于真相,因為驅動它們的算法是中立無偏見的。
對于我們中的某些人來說,這是一個bug:在剛性觀點之外,機器不應該存有任何惻隱之心。對于其他的人來說,這是一個特征:機器應該擺脫人類的偏見。但是在這兩者之間還有一種看法,機器將學會客觀。
當然了真相遠不是這樣的,事實的情況是智能系統不僅少有公正無偏見的,且偏見的來源還是多種多樣的。這些偏見來源包括我們用于訓練系統的數據,我們同機器在“野生環境”下的交互,突發偏見,相似偏見以及沖突性目標的偏見。這些來源中的大多數通常被忽視,但是隨著我們對于智能系統的構建和部署,了解機器的偏見來源顯得愈發重要,因為我們可以有意識地設計系統且有望避免潛在的問題。
數據驅動偏見
對于任何學習系統來說,輸出的訊息取決于它接受的數據。這并不是一個多么新穎的觀點,只是當我們看到那些被數百萬例子驅動的系統時,這一點通常被遺忘了。龐大的例子會壓倒任何人的偏見,但是如果訓練集本身就是傾斜的,那么最終的結果也會帶有偏見。
最近這種類型的偏見已經出現在一些經過深度學習的圖像識別系統之中,尼康面部識別軟件中出現的對于亞洲人面孔識別以及HP皮膚色度的混淆問題似乎就是這種傾斜的實例集學習的產物。雖然這兩者都是固定的且無意識的,但是他們證明了如果我們不考慮數據中存在的偏差的話,最終還是會出現問題的。
除了面部識別,還有其他一些令人不安的情況會對現實世界產生影響。用于構建預測假釋犯的累犯率、犯罪模式或潛在雇員的學習系統或多或少都會有一些潛在的負面影響。當它們受訓于有傾向性的數據、有的時候甚至是平衡數據,但系統還是會在決策時出現偏見,同時這種偏見還是永久性的。
交互偏見
盡管有一些系統通過查看大量的示例組來學習,但其他類型的系統大多通過交互來學習,于是偏見隨著驅動交互的用戶所帶的偏見而產生了。這種類型的偏見有一個很鮮明的例子,即微軟的Tay,一個基于Twitter的聊天機器人,旨在通過與用戶的交互中進行學習。然而不幸的是,Tay受到了一個用戶社區的影響,在與這個社區的交互中Tay變成了一個種族主義者。從本質上說,這個社區反復地在同Tay的聊天中表達了一些攻擊性的言論,通過學習系統Tay最后學會了這些語句并用作日后交互中的回復。
Tay前前后后只存活了24小時,在成為一個極具攻擊性的種族主義者之后就被微軟強行關閉了。盡管Tay的種族主義嘲諷僅僅局限在Twitter上,但是這一事件表明了它潛在的對于現實世界的影響。正是因為我們構建的智能系統是從人類那里學習如何交流溝通以及做決策,那么類似的因為訓練而產生的問題以后會越來越多。
那么如果人類同智能系統合作,隨著時間的推移,最終拿下控制權的會是誰呢?想一想吧,對于機器人作出的決定,諸如誰會獲得貸款或者誰被拒絕,我們在多大程度上會選擇信任呢?Tay事件教會我們的是,這樣的系統終將在與人交流的過程中學會人類以及環境中的偏見,無論是好的還是壞的,都會反映出訓練它們的人類的意見與觀點。
突發性偏見
有的時候,個性化系統作出的決策最終會在我們周圍產生偏見“泡沫”,只要看一看Facebook目前的情況就能發現這一偏見確實存在。在最高層面上,Facebook的用戶可以看到他們朋友發的帖子,并且可以與之共享信息。
不幸的是,任何使用數據饋送分析然后呈現內容的算法都將提供與用戶已經看到的想法集相匹配的內容。這種效果隨著用戶的點閱、喜歡和共享內容而被逐漸放大,最終的結果是導致流向用戶的信息流都是基于現存的觀點和看法的。
盡管這的確是個性化的,且往往都是無害的,但是這再也不是我們所說的新聞訊息了。這是一個信息泡沫,是一個算法版本的“確認偏見”。用戶再也不必屏蔽與他們意見相左的信息了,因為系統會自動幫助他們屏蔽這些信息。
這些信息偏差對新聞世界的影響是令人不安的,但是當我們把社交媒體模型視作支持企業做決策的一種方式時,那么導致信息泡沫出現的系統似乎就有了扭曲人類思維的潛能。知識分子永遠只會從與其相似的人那里獲得信息,而永遠不會去注意那些與之對立的觀點,于是他們就忽視了不一樣的想法。
相似性偏見
有的時候偏見僅僅只是系統按部就班照著設計跑流程時的產物。以谷歌新聞為例,它會向用戶推薦同其搜索內容相匹配的新聞,這顯然是產品設計的目的之一,并且的確做的不錯。當然了,這種設計的結果是用戶會得到了一組類似的新聞,這些新聞之間相互佐證。這也就是說,他們催生了一個信息泡沫,這個泡沫同Facebook設計的個性化泡沫從本質上換湯不換藥。
當然有很多問題都與這一模式所強調的新聞角色及傳播緊密相關,這其中最明顯的一個就是如何做到信息平衡的問題。“編輯把關”的缺失在目前是大范圍普存的,雖然相似性在信息世界是一個有力的判斷標準,但絕不是唯一的。不同的觀點會為決策提供強有力的支持,只提供“類似”的查詢結果會建構一個信息泡沫。
在企業中,沖突、對立、反對的觀點會帶來創新和變革,相似性偏見往往卻是一個很容易被接受的偏見。
沖突性目標偏見
有的時候那些專為特定的商業目的而設計的系統最終也會產生偏見,這些偏見是真實但也是完全無法預測的。
舉個例子,試想一個旨在為求職者提供職位描述的系統,當用戶點擊職位描述的時候就會給出相應的薪酬收入,那么很自然的這個算法的目標就是希望通過提供職位描述信息來獲得更多的點擊次數。
事實證明,人們傾向于點擊符合他們個人觀點的工作。例如,女性首先傾向于為工作貼上“護理”的標簽而不是“醫療技術員”。這不是因為這個工作對于他們來說是最好的,而是因為他們被刻板印象反復提醒,然后將自己的觀點與這種印象保持一致。
刻板印象對于行為的威脅是這樣運作的,通過呈現與人們刻板印象相符合的工作信息(例如性別、種族以及民族)來獲得更高的點擊率。基于此,任何帶有學習功能的網站都會基于點擊行為來向用戶提供內容強化的刻板印象。
機器偏見的本質就是人的偏見
在一個理想的狀態里,智能系統及其算法都應當是客觀的。然而不幸的是,這些系統都是由人類建立,于是所有的系統最終都將反映出人類的偏見。通過了解偏見的本身以及問題的來源,我們可以積極地通過設計系統來避免偏見。
也許我們永遠都不可能設計出完全客觀公正的系統及工具,但是至少我們能夠相對于人類來說他們是更為客觀的。這樣的話,選舉不再會誤導我們,流通貨幣不會再崩潰,然后我們可以打破信息泡沫、個性化新聞泡沫,同那些與我們不一樣的人交流溝通。