<var id="h7zz7"></var><var id="h7zz7"></var> <var id="h7zz7"><strike id="h7zz7"><progress id="h7zz7"></progress></strike></var><cite id="h7zz7"><video id="h7zz7"><thead id="h7zz7"></thead></video></cite><var id="h7zz7"><video id="h7zz7"></video></var>
<cite id="h7zz7"><video id="h7zz7"><thead id="h7zz7"></thead></video></cite>
<cite id="h7zz7"><strike id="h7zz7"></strike></cite>
<cite id="h7zz7"></cite><var id="h7zz7"><strike id="h7zz7"></strike></var>
<cite id="h7zz7"></cite>
// 新刊推薦

掃碼購買

// 中經商學院

人臉識別:面對無處不在的眼睛的慎思

作者:段偉文 / 發布時間:2021-01-12/ 瀏覽次數:0
除非在制度上建立起一套嚴格的監管與治理體系,使人臉識別技術的應用遵循必要、正當、合理等每個人可以接受的樸素且普遍的價值訴求,刷臉時代高喊“我的數據我做主”無異于夢囈。

近兩年來,人臉識別技術在未經審議與討論的情況下迅速推廣,應用場景越來越多,甚至到了司空見慣的程度。盡管“人臉識別第一案”以及南京、天津在相關爭議后出臺了某些特定場景應用的禁令,《個人信息保護法》以及《民法典》等相關法律法規的出臺和細化必將涉及對人臉識別應用的規制,但僅從交通安檢、大學、機關與景區大門的門禁等可見的場景來看,人臉識別應用依然因循著“先應用后治理”的新技術應用思路。各種惡意應用和具有潛在安全與倫理風險的技術濫用沒有得到應有的關注。
 
正因為如此,人臉識別如同漫過堤岸的洪水,越來越多地加裝在各種可見的門禁系統和不那么顯眼的監控設備之中。問題是,這就是人們想要的智能化的未來嗎?
 
《自然》(Nature)雜志最近就人臉識別的倫理問題對人臉識別、計算機視覺和人工智能的研究人員展開了一項調查,在問及對11個人臉識別場景的舒適程度時,結果顯示,從較為接受到難以接受的場景排列是:警方識別嫌犯、機場旅客身份核驗、智能手機解鎖、公司門禁、公交系統乘客身份核驗、學校學生注冊和考勤、警方對公共場所的監控、學校對學生行為的評價、雇主對求職者的人格特征和情感的評價、任何人對他人身份的查尋。這些典型場景實際上表明,如果沒有輿論關注、社會熱議和必要的監管,人臉識別的應用幾乎可以無處不在,它對人可能造成的侵略性與潛在危害,也必將隨著其精準性和計算速度的提升而變得無以復加。
 
再也丟不起的“臉”
 
真實的世界無不充滿悖論。從互聯網、數字新媒體到大數據和人工智能,數字化和智能化成為本世紀以來的時代引擎,但與之相伴隨的是,個人數據的不當采集、大量泄露與非法使用正在使人的隱私、財產等權益受到日益嚴重的侵害。透過戴頭盔買房之類的黑色幽默不難看到,對于在數字世界中幾近裸奔的蕓蕓眾生而言,“人臉”實際上已經成為人們退無可退的最后一道防線。
 
這么說并非危言聳聽。人臉原本是每個人最為重要的外貌與人格特征,是人們近距離確認他人身份的主要依據,人臉識別技術則從根本上將識別人臉這種人與人在物理時空的相認,轉變成了任何人掌握和部署了這一技術的人可以隱秘地識別、分析和算計他人的監測——無處不在的觀察與揣測、全過程的記錄和計算。
 
在攝影技術出現以前,對于大多數人而言,人臉是通過物理時空的近距離識認或觀察獲得的,經由他人不那么精確的記憶與回憶得到保存或提取。除了基于長時間觀察的素描、肖像畫或基于短視記憶及其描述的回憶畫像以外,人臉的主要呈現形式為人與人彼此近距離面對面的即時印象和由此形成的記憶。這意味著,且不論識別的精準程度,“一個人看到過另外一個人的臉”,實質上是一種對主觀體驗的陳述,是需要其他在場者做出旁證的有待進一步確認的證言。
 
隨著攝影特別是數字影像技術和人臉識別技術的發展,記錄人臉信息的數據越來越精確,成為容易獲得與辨識的生物特征數據之一。由于人臉的精確數據可以在非接觸的情況下輕易地得到遠程采集、識別和分析,而且這些數據既與其原始歸屬者具有唯一的對應關系,又可以脫離該人而得到存儲、復制、研究和變造。相對于指紋、虹膜、步態等其他生物特征數據識別,人臉識別在本質上可以便捷地通過非物理侵入的方式唯一地確認人的身份,使一個人的行為與其唯一身份的關系得到認定。
因此,人臉識別技術的出現從根本上顛覆了人臉在傳統物理時空的內涵,不僅使其成為跨越物理時空和信息空間可流動和自動處理的數據,而且在很大程度上演變為與人的身份相關的具有唯一性的數字人格。而這一態勢無疑帶來了一個全新的悖論:一方面,人臉很可能成為證明“我就是我”即驗證人的身份同一性的數字人格;另一方面,人臉數據非但不為我所掌握,人們對誰在采集、誰在出于什么目的處理和使用其人臉數據,諸如這些數據如何被存儲、傳遞、加工、泄露等多半不知曉,更不了解其中的機理機制。也就是說,建立在人臉識別等技術系統的部署之上的數字人格,實質上已然成為一種脫離個人的主體掌控能力的存在。除非在制度上建立起一套嚴格的監管與治理體系,使人臉識別技術的應用遵循必要、正當、合理等每個人可以接受的樸素且普遍的價值訴求,刷臉時代高喊“我的數據我做主”無異于夢囈。
 
呼喚更加精細的治理
 
在任何時代似乎壞消息都多于好消息。雖然“臉”再也丟不起,但科技已經發展到了這一步,我們既不可能捂著臉做人,也不可能全面禁止人臉識別的應用。在西方,盡管歐洲對人臉識別的應用有GDPR之類嚴格的規制,美國的很多地方出臺了禁止或暫停人臉識別的法規,但從長期來看,鑒于其廣泛的應用前景與巨大的商機,人臉識別技術的發展最終難以避免。在中國,以隱私換便利與安全,似乎是很多場景下默認、強制或悄悄地部署人臉識別系統的“理由”,但如果技術提供者和部署者不能確保人臉數據的安全性,無法證明該技術不會被濫用,人們對這項顛覆性技術的態度必然會越來越不信任,乃至無比焦慮。
 
毋庸置疑,不論是全面禁止還是無序生長皆非長久之計,人臉識別應用的下一步必然是對其加以系統而精細的治理。這無疑需要訴諸系統而具體的研究、廣泛而公開的討論乃至精心設計的社會試驗,但在此之前,應該對一些根本性的問題有所思考。
 
首先,要認識到人臉識別技術本身的局限性與邊界,對其安全與倫理風險加以評估、預見和治理。目前對于技術局限性的討論比較多,如由于訓練數據樣本不足造成的偏差和歧視等。但從技術發展趨勢看,使用人臉數據進行的面部分析技術,如對人的年齡,性別、生理、病理、情緒、情感等方面的分析,應該尤其慎重。以疫情防控中熱成像掃描與人臉識別技術的結合為例,盡管在跟蹤受感染個體上表現出的高效率體現了一定的合理性,但這種類型的多模式生物特征識別系統的出現,模糊了“皮膚上”和“皮膚下”監視之間的界線,從而需要更嚴格的審查,在進一步的研發應用之前,應對其潛在的安全與倫理風險加以必要的監管。
 
其次,要意識到普通人面對人臉識別的泛在部署已淪為脆弱群體。僅以商業應用為例,不能讓人臉識別技術僅僅成為賦能企業的工具。實際上,國內外很多企業之所以呼吁政府出臺明晰的行業規范與監管制度,就是因為擔心無序的技術濫用必然會帶來巨大的社會輿論反彈和監管風險。對于行政部門而言,過度依賴數字化和智能化實際上真正導致缺乏溫度的新型的“機器官僚主義”。
 
最后,每個人都應該問問自己,包括那些開發者和部署者,一個無處不在的自動識別每個人一顰一笑的未來,是否真的是你想要擁抱的美麗新世界。
 
作者簡介:段偉文,物理學學士、科技哲學碩士、博士,現任中國社科院哲學所科技哲學研究室主任、研究員,中國社科院科學技術和社會研究中心主任,中國社科院大學特聘教授。主要研究領域為科學哲學、信息技術哲學,近年來關注大數據與人工智能的哲學、倫理和社會研究。
 

除《商學院》雜志署名文章外,其他文章為作者獨立觀點,不代表《商學院》雜志立場,未經允許不得轉載。

歡迎關注平臺微信公眾號

 點贊 30
 收藏 20
宝贝它想你想的爆炸了_日本亲与子乱av_6欧式个人写真_把腿抬高我要添你下面_yase永久访问网站_我的冰山总裁老婆