在Youtube上,“怎么準備機器人面試”視頻一經發(fā)布迅速引發(fā)關注,同時也有很多人分享了自己面試失敗的經歷。
圖片來源:Youtube
“如果你像平常試圖問候他們周末過得怎樣,或者稱贊他們的辦公環(huán)境,你就不會在人工智能視頻面試中得分
“現(xiàn)實世界里,屏幕后面擺個書架可能是個印象加分項。
連攝像頭的擺放,都會變成了一個問題。角度太高,AI或許會覺得自己過于孤傲?角度低了,也可以作為求職者不夠自信的評判。如果取一個極端的例子,因坐姿不端正,斯蒂芬·霍金大概只能去雜貨店看后門了。據Quartz網站報道,通過某家公司一個面試篩選機制發(fā)現(xiàn),名叫Jared和高中時打過長曲棍球的人被預測出將會有優(yōu)異的工作表現(xiàn),如果你是一個名叫Jared的前高中長曲棍球運動員就會被優(yōu)先錄取。
這很可能是AI做訓練時,從應聘者說的話和數(shù)據庫里的范例自帶的刻板印象,也就是說,現(xiàn)實世界存在的偏見,AI也在學習。
從長遠來看,AI可以分為兩個階段:目前階段是學人,第二階段是超越人。就像AlphaGo一開始是大量學習人類棋手的棋譜,現(xiàn)在已經超越了任何一個人類棋手。
譯:即使是MATA公司研發(fā)的AI機器人,對于自己老板扎克伯克的評價是“樣子詭異,人品還差,我不喜歡他。”
圖源:Twitter
未來AI招聘能否成為趨勢之前,首先還知道一個容易被忽略的細節(jié):
絕大多數(shù)公司都不會在意你在簡歷上的性格愛好那一欄寫了什么。
如果有人玩了最近剛發(fā)布的NBA2K23.當你在游戲里成為一名球隊經理組建自己的球隊時,幾乎每個玩家在乎的是球員的身體素質和技巧。
至于球員的風格和團隊意識,在直觀的數(shù)據面前并不值得一提。
當你自己處在食物鏈頂端時,才不會覺得只看重人的工具屬性本身是一件荒誕的事。
在這種標準下,人工智能面試官要找的是“最接近已經成功的人”,而不是“意料之外有創(chuàng)造力的雇員”,畢竟每場都靠關鍵球員絕殺的隊伍是走不遠的。
另外在有些情況下,即便你硬件條件很優(yōu)秀,也還是會被潛在的AI偏見所拒絕。
Jahanzaib Ansari有一份擁有程序員經驗并就讀于多倫多大學的簡歷,他投的大公司都選擇使用AI篩選簡歷的方式。
圖片來源:Twitter
安薩里說,這是招聘過程這是一種無意識的偏見,幾十年來已經融入社會,非裔美國人社區(qū)的成員,那些有猶太名字的人或像他一樣,有穆斯林名字的人,都經歷過。
用一個唾手可得的例子:在谷歌打上CEO三個字,顯示的是清一色的白人,這是最直接的偏見,算法工程師教導AI認識世界都根植于他們的內心想法。
于是有人開始質疑讓機器擁有一刀切的話語權是否正確?面試對求職者來說意義重大。他們說,面試結果可以永遠改變一個人的人生軌跡。許多招聘人員則認為他們不能被機器取代,因為他們有直覺和經驗,但事實上無論是機器還是人工都無法避免偏見。
圖片來源:脈脈
一個討厭紋身的保守主義者一定不會對一個有花臂的朋克有良好的第一印象。在人工智能面試中,候選人紋身的存在甚至沒有被記錄為打分的一部分。
Hirevue的負責人表示AI面試官是可以通過訓練達到超越人類固有偏見的,就像前面提到的下棋AlphaGo,到了一定時候,選手也明白贏得比賽的關鍵是把AI放進自己的身體。
聯(lián)合利華的首席人力資源官Leena Nair也表示,AI系統(tǒng)幫助HR們擺脫了“慣性”,使得企業(yè)雇傭的員工更加多元化了。
“如果有個別人群被過度偏愛,我們可以調整算法直到讓每個人都得到愛。”
這是某家研發(fā)AI招聘公司的Slogan,事實上,這類型的公司傳達的藍圖都是這意思。
去年12月,紐約市議會以 38 票對 4 票通過了一項法案:如果 AI 招聘系統(tǒng)沒有通過年審,將被禁止使用,年度審計將檢查 AI 招聘系統(tǒng)有沒有歧視。
要對AI招聘做一種總結,應該是過程很痛苦,趨勢很美好。
至少我覺得把酷刑二字用于形容整個過程是貼切的,殘酷的點在于現(xiàn)階段AI無法給你反饋