眼下,在企業招聘過程中,越來越多求職者在面試中面對的不是人類面試官,而是人工智慧(AI)面試官。《2023年中國網路招聘市場發展研究報告》的統計顯示,AI視頻面試的應用場景已佔到31.8%。專業招聘平臺大力推動人工智慧招聘系統研發和應用的背後,是龐大的市場需求。
AI招聘之所以受到青睞,源於它的多種優勢。首先是高效,面對成千上萬的簡歷,AI算力比人力的篩選效率高很多。其次是客觀,AI擺脫了人的主觀偏見,對求職者的評價更加中立。最後是低成本,AI招聘節省了大量的時間、人力和物力成本。在不斷發展過程中,AI招聘系統越來越智慧,從最初的簡歷篩選到人崗匹配,再到AI面試,AI在招聘中能完成的任務越來越多,實踐中,最新的AI面試系統已經具備了個性化追問功能。
但是,在享受AI招聘帶來的科技紅利同時,還應當警惕其可能帶來的負面效應。面對智慧招聘熱潮必須作出的冷思考是:在科技上有能力做到的,在法律上是否都允許?AI招聘不是法外之地,必須在法律的軌道上運作,而這一點在技術迅猛發展的背景下常常被忽略。筆者歸納出在現行法律框架下,AI招聘過程中可能存在的法律風險,並嘗試探索應對之道。
第一,透明度問題。許多求職者不明白,自己為什麼被AI打了低分而出局?這背後反映的是演算法黑箱問題。AI對求職者作出評價和決策的依據等演算法運作機制應透明可釋。招聘者負有對關鍵演算法進行公開的法律義務,以便於求職者理解的方式進行解釋。從求職者的角度看,法律已經賦予了其演算法解釋權,可拿起法律武器積極維護自身權益。
第二,公平性問題。AI可能對求職者作出不公正的評價,甚至引發演算法歧視。演算法歧視主要源於兩方面因素:一是招聘者在設計演算法時有意植入帶有歧視性的參數,刻意排除某些求職群體;二是數據訓練或演算法設計本身存在科學性缺陷。就業權是一項基本人權,AI招聘關係到求職者能否獲得工作,因此招聘演算法屬於高風險演算法。AI招聘系統的設計者、使用者除了不斷加強數據訓練和改進演算法以提升其科學性之外,還負有對招聘演算法進行週期性風險評估的法律義務,應通過評估發現並消除歧視性風險。對於遭受不公正對待的求職者,可主張反歧視救濟,既有的反歧視法對AI招聘仍然適用。
第三,個人資訊與人格尊嚴保護問題。AI面試中的人臉識別、語音分析、情感識別等技術手段的運用,不可避免地要大量收集求職者的個人資訊,其中包括人臉資訊、聲紋資訊等敏感個人資訊,這些資訊的收集處理受到嚴格的法律限制。招聘者須依據個人資訊保護法的規定履行個人資訊處理者的義務。一是對求職者資訊的收集必須以明確的招聘目的為限制,不能為其他目的所使用。二是遵循最小化原則,以滿足招聘目的為必要限度,盡可能少收集個人資訊,對已收集的資訊不能永久保存,應在招聘完成後的合理時間銷毀。三是應就收集個人資訊向求職者履行告知義務並徵得其同意。四是履行個人資訊保護風險評估義務。五是對收集的資訊採取脫敏化、去標識化、匿名化等保密措施。對在AI面試中被收集的個人資訊,求職者依法享有查閱、複製以及刪除的權利。除了個人資訊保護之外,AI招聘還可能涉及人格尊嚴問題。值得關注的是,根據新近頒布的歐盟《人工智慧法案》,分析僱員情緒的人工智慧系統因屬於不可接受的風險等級而被禁止,這恰恰是很多AI招聘系統宣稱的先進技術。我國對此雖尚無明確禁止的立法,但是對於AI招聘可能給人格權帶來的挑戰應當持謹慎態度。
第四,對AI的人力監督問題。在賦予AI招聘功能之後,人類應當扮演什麼角色值得反思。由於AI的局限性可能導致的演算法失準、歧視等風險,招聘者不能完全袖手旁觀,而應做好AI監督者。隨著技術的升級,AI在招聘中的角色從最初的輔助性工作逐漸向獨立作出自動化決策的方向發展。個人資訊保護法第24條規定,如果一項決定是僅通過自動化決策的方式作出的且對於個人權益有重大影響,那麼個人有權利拒絕該決定。招聘中的自動化決策影響到勞動者的就業權,顯然符合該規定。這意味著,招聘者應當對AI形成的自動化決策作出人工審查。
AI招聘是技術發展的成果,提高了工作效率,但其必須在法律設定的邊界內運作,實際招聘者才應是監督者和最終決策者。(作者為天津大學法學院教授)
(責任編輯:畢安吉)