提案最好的部分是它的揭露要求。
「我們無法提供有關您面試結果的具體回饋。」
在美國,越來越多的雇主利用人工智慧(AI)加快招聘流程。但求職者很少知道 AI 招聘工具為何拒絕他們的簡歷,或者如何分析他們的影片面試。當他們落選時,往往只能收到這樣一封冷冰冰的信件,不知道自己到底為什麼落選。 這不免令人不安,AI 在我們的職業生涯中究竟起了什麼樣的決定權?
美聯社報導,11 月初,紐約市議會以票數 38:4 通過了一項法案:如果 AI 招聘系統沒有通過年度審計,將被禁止使用。
年度審計將檢查 AI 招聘系統有沒有種族或性別歧視,允許求職者選擇人工審查等替代方案,AI 開發人員還需揭露更多過去不透明的細節。
有趣的是,負責年度審計的是 AI 開發人員,但會被處罰的是雇主,如果他們使用了未通過年度審計的 AI 招聘系統,每項違規行為最高處罰 1,500 美元。
支持者認為,該法案將為複雜的算法打開一扇窗戶。算法往往根據求職者的說話或寫作方式對技能和個性進行排名,但機器能否準確公正地判斷性格特徵和情緒訊號值得懷疑,這一過程未來會更加透明。
至少,知道「因為算法有偏見而被拒絕」就是有意義的,牛津大學技術法教授 Sandra Wachter 曾經表示: 反歧視法主要是由投訴驅動的,如果他們不知道發生在自己身上的事情,就沒有人可以抱怨被剝奪了工作機會。
新創公司 Pymetrics 也非常支持這一法案,他們提倡借助 AI 通過遊戲等方法面試,並認為其符合公平要求。
與此同時,過時的 AI 面試方案將被掃進垃圾堆。AI 招聘系統提供商 HireVue 在今年初已開始逐步淘汰其面部掃描工具,這項工具被學術界稱為「偽科學」,讓人想起有關種族主義的顱相學理論。
對法案的反對意見,大多是出於「這遠遠不夠」。民主與技術中心主席 Alexandra Givens 指出,提案實際上只是要求雇主滿足美國民權法的現有要求——禁止因種族、民族或性別而產生不同影響的招聘行為,但忽略了針對殘疾或年齡的偏見。而一些人工智慧專家和數字權利活動家擔心,法案只是讓 AI 開發人員自證他們遵守了基本要求,也只是為聯邦監管機構和立法者設定薄弱標準,具體如何「審計偏見」非常模糊。
值得注意的是,偏見在面試中並不少見,主要問題出在餵養算法的樣本,但它們往往被置於「黑箱」之中,普通求職者很難發覺。
幾年前,亞馬遜(Amazon, AMZN-US)停用了簡歷掃描工具,因為它偏向讓男性擔任技術崗位。部分原因在於,它將求職者的條件與公司內部的男性技術勞動力進行比較;同理,如果算法從種族和性別差異已經普遍存在的產業中獲取養料,那麽它只是在鞏固偏見。
這種偏見並不只是招聘中。今年 4 月,南加州大學一項新的研究表明,Facebook 正在以可能違反《反歧視法》的方式展示廣告,男性更有可能看到披薩送貨司機招聘廣告,而女性更有可能看到購物廣告。
本質上,“ AI 歧視 ” 就是被人類社會培養的,個人的偏見行為甚至是下意識的,我們自己不一定察覺。若將一家偏見較少的公司與偏見嚴重的公司比較,一般就是兩種原因——前者在有意消除偏見方面做得更好,後者更擅長收集並不合理的現狀並使它們永久化。
所以,中性意見認為紐約市提案最好的部分是它的揭露要求,讓人們知道自己正在被 AI 評估、如何被 AI 評估以及他們的數據去向是哪裡。
參考資料:
- https ://apnews.com/article/technology-business-race-and-ethnicity-racial-injustice-artificial-intelligence- 2fe8d3ef7008d299d9d810f0c0f7905d
- https ://apnews.com/article/job-seekers-artificial-intelligence-hiring-decisions- 784ccec7ac6175aadc573465ab604fb9
《36氪》授權轉載
【延伸閱讀】