面部識別技術逐漸成為日常生活的一部分。你可能已經靠“刷臉”登錄你的手機或電腦,或者完成網銀付款前的身份驗證。在中國,面部識別技術更為常見,通過人臉識別,你可以購買快餐或者在公共廁所中領取衛生紙。但這種技術的廣泛應用掩蓋了其背后潛在的結構性問題,尤其是偏見問題。研究人員表示,用于面部識別的分析軟件依據其識別對象的年齡、性別和種族的差異,會反饋出不同的結果。
麻省理工學院媒體實驗室(MIT Media Lab)的研究人員在2月份發表的一項研究發現:與膚色較淺的男性相比,由IBM、微軟和曠視科技(Face++)設計的面部識別算法在檢測膚色較深的女性時,其出錯率要高出35%。通過這種方式,面部識別的技術偏見可能會強化社會偏見,影響女性和少數族裔,亦有可能將他們排除在世界數字基礎設施之外,或對他們做出改變人生的判斷。
一、是時候建立應對技術偏見的全行業標準
以上所述是個壞消息,更壞的消息是,公司還沒有解決這個問題的計劃。盡管個別公司正在其自主研發的軟件中解決面部識別中的技術偏見,但專家們表示,沒有任何統一的標準可以在整個行業范圍內同步實施。因此,當公司在其算法中減少偏見的時候(正如微軟上個月宣布的那樣),很難判斷這有多大意義。
喬治城大學隱私與技術中心的研究員克萊爾·加維(Clare Garvie)表示,很多人認為現在是時候引入全行業的偏見和準確性的基準測試了:測試算法在不同的人口統計數據上的表現,比如年齡、性別和膚色。“我認為這將是非常有益的,”Garvie說。“特別是對于那些將與政府機構簽約的公司。”對于公司來說,面部識別應用已經變得比以往任何時候都要容易。
?。▓D1:今年5月,英國天空廣播公司(Sky)利用亞馬遜的面部識別API接口來識別名人。)
二、科技行業有哪些解決方案?
在一項非正式調查中,The Verge聯系了十幾家出售面部識別、驗證和分析算法的公司。所有回復的公司都說他們意識到了偏見的問題,而且大多數公司都說他們正在盡最大努力在他們自己的系統中減少這種偏見。但沒有人會分享他們工作的詳細數據,或者透露他們自己的內部指標。如果你經常使用面部識別算法,難道你不愿意知道它是否一直在性別或膚色項目上表現欠佳嗎?
谷歌只銷售人臉識別的算法,而不是身份信息。谷歌表示:“我們確實測試了偏見,而且我們一直在測試我們的底層模型,以減少技術偏見帶來的不公平。在這個時候,我們沒有更多的細節來分享。”
微軟分享了其近期的改進,包括軟件在性別識別方面的進展,目前其對膚色較深的女性的識別錯誤率為1.9%(低于20.8%)。該公司沒有提供官方聲明,但其首席法律顧問布拉德·史密斯(Brad Smith)在7月份發表的一篇博客文章提到了這一點。史密斯表示,現在是時候讓美國政府監管自身對面部識別的使用了,盡管不是由私營企業來部署。也許,還應包括設定最低的精確度標準。
IBM還強調了最近的改進,以及上個月發布的一套用于訓練面部識別系統的多樣化數據集,旨在對抗偏見。IBM Watson的首席設計師魯希爾·普里(Ruchir Puri)于6月份曾表示,該公司有意幫助建立準確的基準。普里說:“應該有許多這樣的基準來評判。”“但這種判斷應該由團體來做,而不是由任何特定的參與者來做。”
?。▓D2:亞馬遜人臉識別系統將28名國會議員識別為罪犯)
亞馬遜沒有回應這個問題,而是于今年早些時候在發表的聲明中提到,該公司曾因向執法部門出售面部識別技術而受到ACLU(美國公民自由聯盟)的批評。(ACLU最近也提出了類似的批評:它測試了該公司的面部識別軟件,以識別國會成員的照片,并發現他們錯誤地將28個人與犯罪照片相匹配。)
亞馬遜表示,如果用戶將算法應用于非法歧視或侵犯公眾的隱私權,他們將對該用戶撤銷權限,但沒有提及任何形式的監管。該公司透露,其團隊正在內部進行測試,以分析和消除系統中的偏見,但不會透露更多信息。考慮到亞馬遜持續向執法機構出售其算法,這一點值得注意。
在接近邊緣的企業供應商中,有些公司根本沒有提供直接的回應,包括FaceFirst、Gemalto和NEC。另一些公司,比如一家向世界各地的執法部門和邊境機構銷售面部識別算法的德國公司科尼特克公司(Cognitec)承認,如果沒有正確的數據,消除偏見很難。
“可用的數據庫往往是有偏見的,”科尼特公司的市場經理埃爾克·奧伯格(Elke Oberg)表示。“數據庫可能只包含白人,因為這是供應商提供的模型。”奧伯格說,科尼特公司在不同的數據上做了最好的訓練,但他說,市場力量將淘汰糟糕的算法。“所有的供應商都在研究這個問題,因為公眾已經意識到了這一點,”她說。“我認為,如果你想作為一個供應商生存下去,你肯定需要在高度多樣化的數據上訓練你的算法。”
三、如何解決偏見的問題?
這些答案表明,盡管人們意識到偏見的問題,但沒有應對的措施。那么該怎么辦呢?大多數專家建議的解決方案在概念上是簡單的,但卻難以實現:為準確性和偏差創建全行業的測試。
有趣的是,這樣的測試已經存在了。它被稱為FRVT(人臉識別供應商測試),由美國國家標準技術研究院(NIST)管理。它測試了幾十個面部識別系統在不同情況下的準確性,比如將護照照片與站在邊境門上的人相匹配,或者在數據庫中匹配閉路電視片段和臉部照片。它還測試了“人口差異”——算法是如何基于性別、年齡和種族來進行面部識別的。
然而,FRVT是完全自愿的,提交其算法的組織往往是試圖向政府出售服務的企業供應商,或者是學者測試新的、實驗性的模型。像NEC和Gemalto這樣的小公司提交了他們的算法,但是沒有一家大型的商業科技公司這么做。
Garvie認為,擴大FRVT的覆蓋范圍,而不是為面部識別的準確性創造新的測試,可能是一個好主意。“NIST在進行這些測試方面做得非常出色,”Garvie說。“但他們的資源也有限。我懷疑我們需要立法或聯邦資金支持來提高NIST測試其他公司的能力。”另一個挑戰是,像亞馬遜和微軟這樣的公司部署的深度學習算法很難被送去分析。這些算法是不斷更新的軟件的巨大組成部分,與老式的面部識別系統非常不同,后者通??梢园惭b在一個u盤上。
在接受The Verge采訪時,NIST的生物識別標準和測試主管帕特里克·格羅瑟(Patrick Grother)明確表示,該組織目前的角色不是監管。“我們不做監管,我們不制定政策。我們只生產數字,”格羅瑟說。NIST近20年來一直在測試面部識別算法的準確性,目前正在準備一份專門針對偏見問題的年底報告。
格羅瑟表示,盡管自NIST開始測試以來,“錯誤數量大幅減少”,但不同算法的性能之間仍然存在很大的差異。“不是每個人都能做面部識別,但很多人認為他們能做到,”他說。
格羅瑟說,最近關于偏見的討論經常會混淆不同類型的問題。他指出,盡管訓練數據集缺乏多樣性會造成偏見,但對相關的人像采集拍攝也會產生偏見,尤其是當膚色沒有被適當地暴露出來的時候。類似地,不同類型的錯誤在應用于不同類型的任務時意味著更多。所有這些細微之處都需要考慮到基準或監管。
四、偏見并不是唯一的問題
關于偏見的討論還引發了其他關于社會使用面部識別的問題。
人工智能科學家Joy Buolamwini是麻省理工學院的研究人員(從事性別識別算法不同準確率的研究工作),他表示,僅僅解決偏見并不能完全解決這些更廣泛的問題。“開發面部分析技術,然后將其武器化,有什么好處呢?我們需要一種更全面的方法,將面部分析技術作為一個社會技術問題來對待。技術上的考慮不能與社會影響相分離。”
?。▓D三:人臉識別應用于邊境檢查)
Buolamwini和其他人工智能團隊成員對這些問題采取了積極的態度。面部識別供應商Kairos的首席執行官布萊恩·布雷克(Brian Brackeen)特最近宣布,其公司不會向執法部門出售面部識別系統,因為有被濫用的可能性。
布雷克表示,當涉及到面部識別的商業部署時,市場力量將有助于消除偏見算法。但是他同時表示,當這些工具被政府使用時,風險要高得多。這是因為聯邦機構可以獲得更多的數據,這增加了這些系統被用于抑制監視的可能性。(據估計,美國政府持有該國一半成年人口的面部數據。)類似地,政府使用這些算法做出的決定將對個人的生活產生更大的影響。
“執法的用例不只是街上的攝像頭,而是身體攝像頭、臉部照片,”布雷克說,如果偏見是這些場景中的一個因素,那么“你就有了一個更大的可能性讓一個有色人種被錯誤地指控為犯罪。”
因此,關于偏見的討論似乎只是一場更大辯論的開始。正如Buolamwini所述,基準測試可以發揮他們的作用,但還需要做更多的工作:“開發這些工具的公司、研究人員和學者必須承擔責任,在他們想要減輕損害的情況下,對他們開發的系統設置條件限制。”