
越來越多的地方可以刷臉通行了。
據(jù)香港南華早報報道,北京的新機場馬上要采用人臉識別技術代替人工安檢系統(tǒng),通過系統(tǒng)來捕捉旅客現(xiàn)場的照片與身份證照片進行比對,然后把這個比對值提供給安檢工作人員,安檢工作人員就可以通過這個值,再根據(jù)自己的比對來判斷旅客是不是同一個人,相當于增加了一道安全的防護的保障。
人臉識別安檢系統(tǒng)安全便捷,智能高效,不僅方便了旅客過檢,還解決了在發(fā)生突發(fā)情況需要核查旅客過檢信息時無法實現(xiàn)快速查詢、檢查效率低、員工勞動強度大、人工成本高等問題。
人臉相比指紋等其他生物特征數(shù)據(jù)的一個巨大區(qū)別就是它們能夠遠距離起作用。人們只要有手機就可以拍下照片,供人臉識別程序使用。人臉識別技術被設想應用或已經(jīng)應用于門禁識別、交易支付、公安追蹤等眾多領域。
不過這也引發(fā)了人們關于隱私安全等方面的顧慮。
就像Facebook可以獲得人們到訪某個景點的信息,然后使用人臉識別技術在自己的網(wǎng)站上找到這些人,向他們發(fā)送旅游廣告,人們的臉部數(shù)據(jù)也通常在不知不覺之中被采集和記錄下來。
人臉識別是否會帶來隱私安全隱患?
如今,執(zhí)法機關在追蹤罪犯方面擁有了一個強大的武器,但它可能會令公民隱私遭受巨大的損害。比如上周五,在谷歌、亞馬遜之后,另一家硅谷巨頭微軟也在內外阻力之下選擇和美國政府在人臉識別計劃上“分手”了。
最近微軟因一份涉及人臉識別軟件的政府合同而受到廣泛抨擊,微軟公司表示,它將更加謹慎地考慮這方面的合同,并敦促立法者規(guī)范此類人工智能技術的使用,以防止人臉識別技術被濫用。
上周五,微軟總裁兼首席法務官布拉德·史密斯(Brad Smith)專門發(fā)表了一篇博文,并在里面寫道:
“考慮到這項技術被濫用的可能性和廣泛的社會影響,政府在人臉識別方面的立法似乎顯得尤為重要。”也就是說,“如果沒有一個縝密的技術方案,那么政府在決定追捕、調查乃至逮捕哪些人的時候,就將依賴于錯誤或者帶有偏見的技術?!?
微軟是第一個對人臉識別提出公開質疑的硅谷巨頭,但不是第一個受到質疑的科技公司。
今年五月,亞馬遜因為正在為政府和警察部門推銷其一款名為Amazon Rekognition的產(chǎn)品而被推上風口浪尖,遭到了來自民間自由團體、公司內部員工和眾多學者的強烈譴責。
Amazon Rekognition的技術可以實時識別、跟蹤和分析人員,并在單幅圖像中識別多達100個人。它還可以快速掃描收集的信息,與數(shù)據(jù)庫數(shù)千萬張面孔進行比對。
消息一發(fā)布,瞬間引起了一大波恐慌,美國公民自由聯(lián)盟組織了30多個民權組織聯(lián)合抗議亞馬遜和政府的合作,要求亞馬遜CEO貝索斯停止向政府出售Rekognition。
大部分抗議者認為,如果政府可以利用精準的人臉識別,那么就將利用這個系統(tǒng)跟蹤和監(jiān)視民眾,個人隱私就會被公共權力毫無邊際地侵犯。Rekognition 技術的廣泛使用會給有色人種、非法入境移民、抗議示威民眾的人身自由權利帶來可怕的后果。
亞馬遜內部的100多名員工更是向CEO杰夫·貝索斯(Jeff Bezos)遞交了一份公開信,要求公司停止向ICE和其他執(zhí)法機構出售侵入性和違憲的Rekognition面部識別技術。
這些員工在聲明中言辭激烈地寫到:“我們公司不應該干監(jiān)視群眾這種蹚渾水的事情;更不應該和警方在安保方面有過密的合作;我們不應該支持那些監(jiān)督和壓迫邊緣人群的公共權力機構?!?
如果沒有一個不帶偏見的技術,那么執(zhí)法部門就可能利用這些帶有偏見的算法或缺陷的技術方法來決定跟蹤、調查,甚至逮捕哪些人,從而做出不公正的結論。
但是科技公司真的會因為各方的抵制而停止與政府和軍方在人臉識別領域的合作嗎?恐怕不。
亞馬遜的 AI 負責人 Matt Wood 在回應抗議聲的博客中寫道:
“新技術能力一直都存在風險,以后也會如此。每個選擇使用技術的組織必須采取負責任的行動,否則就得面臨法律懲罰和公眾譴責的風險。AWS 會認真對待自己的責任。但我們認為,不能因為某些技術未來可能被人濫用就禁止這些技術的發(fā)展,這樣是不對的。”
無獨有偶。
因和五角大樓合作展開Maven項目而飽受指責的谷歌在宣布人工智能7大原則之后仍然給自己留了個臺階,表示將繼續(xù)與美國政府和軍方開展在網(wǎng)絡安全、培訓、退伍軍人醫(yī)療保健、搜救和軍事招聘方面合作。這家網(wǎng)絡巨頭正在爭取兩項數(shù)十億美元的國防部門辦公和云服務合同。
人臉識別的偏見與缺陷
雖然人臉識別已經(jīng)成為AI 領域應用最廣泛的技術之一,但在推廣過程中仍然爭議不斷。
其實,早在2016年,FBI就開發(fā)過一個人臉識別系統(tǒng),背后還有一個41.1億張照片的數(shù)據(jù)庫。
當時FBI通過與18個州交換合作,得到了簽證、護照、國防生物識別數(shù)據(jù)庫、駕駛證等證件上的照片——以及3千萬張曾經(jīng)犯罪的入檔照片。
FBI還為這個數(shù)據(jù)庫專門取了個“下代識別”(Next Generation Identification)的名稱。
然而,據(jù)英國衛(wèi)報報道,FBI 的人臉識別算法準確率只有85%,并且往往會有兩種失誤情況:一種是錯誤匹配,冤枉了無辜的平民;另一種則是漏報,即錯誤放走了出境或入境的罪犯。而識別系統(tǒng)在識別黑人比識別白人的出錯率更高,也就是說在執(zhí)法時,黑人被誤判的幾率更大。
這暴露了人臉識別系統(tǒng)通常具有出錯率高的缺陷,尤其是難以識別和區(qū)分膚色較深的人。
MIT Lab一項名為《Gender Shades》的研究項目就發(fā)現(xiàn),人臉識別軟件中的不同性別和膚色的人的時候會產(chǎn)生偏差。在淺膚色男性的錯誤率為0.8%,而對于深色皮膚的女性則錯誤率高達34.7%。研究人員將這種偏差成為“算法偏見(algorithmic bias)”。
黑人研究人員Joy Buolamwini選擇了微軟、IBM和曠視(Face++)三家的人臉識別API,對它們進行性別判定的人臉識別功能測試。但是她發(fā)現(xiàn)只有兩個平臺能識別出她的臉,而且這兩個平臺都把她的性別給弄錯了。
為了證明她不是特例,Buolamwini于是嘗試分析這些人臉識別技術軟件在識別不同人種、不同性別方面的準確率,結果發(fā)現(xiàn)這幾個人臉識別系統(tǒng)對膚色較深的女性的分類誤差率更高。
她解釋說,這種“算法偏見”(algorithmic bias)存在的主要原因首先是訓練圖像和基準數(shù)據(jù)集缺乏多樣性,其次是深色人種人臉特征較難提取,這兩點限制了人臉識別技術的準確性。
由于人工智能很大程度上依賴于訓練數(shù)據(jù),所以對人工智能進行訓練的數(shù)據(jù)情況,將在很大程度上決定AI的智能程度。因此,如果用來訓練AI模型的數(shù)據(jù)集中,白人男性的數(shù)據(jù)多于黑人女性,那么系統(tǒng)對后者的識別能力就會不如前者。
Joy Buolamwini指出,如果這些人臉識別技術用于移民案件管理或者貸款發(fā)放評估方面,那么產(chǎn)生的不靠譜的結果將使很多人得到不公正的待遇。
Kairos(人臉識別及 AI 技術初創(chuàng)公司)的 CEO Brian Brackeen 發(fā)表了一篇反對將人臉識別應用在執(zhí)法工作中的文章。
文章中寫道,在種族歧視嚴重的美國,非白人受到更嚴格的審查,人臉識別只會加重“不平等”。在數(shù)據(jù)庫還不夠完善的當下,讓技術去“指認”一個人是否犯了罪是極其不負責任的。喬治城大學法律學院隱私與科學中心的研究就表明,接近一億二千萬的美國人成為美國政府人臉識別技術的應用對象。而這一個數(shù)據(jù)在中國則更加龐大。
鑒于人臉識別技術仍未成熟,如果完全不受監(jiān)管的話,這項技術可能會對公民平等和人身安全構成威脅。
人臉識別會成為明天的“利維坦”嗎?
微軟總裁兼首席法務官布拉德·史密斯在發(fā)表的博文里面提到:
“正像凡是工具總有兩面性,就算是掃把,我們也都可以把它用來掃地,也可以用來敲別人的頭懲罰別人。人臉識別技術能夠幫助家庭找到失散已久的親人、也可以幫助警察在茫茫人海中找出準備發(fā)動襲擊的恐怖分子,這些是它能為我們所利用的好處。但同時,人臉識別技術也帶來了根本的關于隱私權和自由表達權利的討論,這項技術若是被公共權力或者企業(yè)所誤用乃至利用,后果是非常可怕的。”
人臉識別是目前 AI 領域里應用最廣泛的技術之一,但是帶來的隱私問題也十分嚴重。
喬治城大學法隱私和技術中心的助理 Clare Garvie也表達了她的擔憂。
人臉識別對言論自由的影響是潛在但不可忽視的。如果人臉識別技術被警方用于監(jiān)控那些挑戰(zhàn)公共權力的群眾,那就好比用于在游行示威中,就如同警方在隊伍中穿行,要求在場的每個人都出示身份證明。所有的群眾都在爭取政治權利的過程中加之亞馬遜在科技領域的影響力,會有更多執(zhí)法機構愿意參與進來。
微軟這次的事件之所以引起各方關注,就是因為在上個月微軟的AI 技術被用于在墨西哥邊境分離非法入境者及其子女。事件被曝光后,微軟短暫地在網(wǎng)站上刪除了其與美國移民和海關執(zhí)法局簽訂合同的文章,但仍然受到廣泛抨擊。
此外,由于人臉不僅僅能表明身份,透露的許多其他信息同樣能由機器讀取,更多人擔心這些推測數(shù)據(jù)會被用于不正義的地方。
斯坦福大學的研究人員就表明,面對一個男同性戀者和一個異性戀者的照片時,算法識別他們性取向的準確率可以達到81%,而人類只能達到61%。在那些視同性戀為犯罪的國家,一個能從面部推斷出性取向的軟件讓人恐懼。
今年五月,美國公民自由團體已經(jīng)呼吁科技公司停止向政府提供面部識別服務,認為這是對公民權利的侵犯。各家公司都表示將更加謹慎地考慮這方面的合同,并敦促立法者規(guī)范人工智能技術的使用,避免這些技術受到執(zhí)法者的濫用。
在歐盟,今年五月新出臺的《GDPR數(shù)據(jù)保護法》已禁止企業(yè)在未獲得用戶特定同意的情況下收集人臉識別所需的生物特征數(shù)據(jù)。
諸多文章和質疑都表明,人臉識別被濫用的隱私和安全問題不能再放任不管了,政府必須在其中扮演立法者的角色,科技公司也不能對倫理問題視而不見,是時候應該好好地思考他們開發(fā)的技術所產(chǎn)生的道德影響和人權影響、以及使用過程中帶來的風險。
結語
在圣經(jīng)故事中,利維坦一只大水怪,因為不受控制,它憑借著巨大的身型攻城略地,把人類一個又一個的吃掉。
人臉識別技術,抑或是人工智能技術也一樣,如果沒有完善的法律約束使用這項技術的應用領域,保證他們用于合法、道德的場景,那么科技就會助紂為虐,而不是像科技公司所說的那樣,改善我們的生活質量,讓我們過上更加安全、舒適的生活。
所以人臉識別技術的明天不僅要追求精準的”高度”,更要守著公民權利的“底線”啊。
來源:聲學在線