2GIRL女子拉拉學園

 找回密碼
 註冊
搜索
2GIRL女子拉拉學園 首頁 新聞 平權 查看內容

亞馬遜祕密開發的人資 AI 竟有性別歧視 履歷有「女」字就先扣分 ...

2018-10-16 19:40| 發佈者: ajenn| 查看: 591| 評論: 1|來自: LimitlessIQ

摘要: 運用 AI 提昇作業效率乃時世所趨,但在人為的影響下,理當公平、公正的 AI,也會變得不公允。亞馬遜的機器學習專家們發現,他們多年努力打造的人力招聘 AI,竟然有著性別歧視的嚴重問題。 ...

▲亞馬遜能以 AI 篩選應徵者,減輕以往的人力需求。(圖/由 Tony Webster 拍攝)陳建鈞/綜合報導

運用 AI 提昇作業效率乃時世所趨,但在人為的影響下,理當公平、公正的 AI,也會變得不公允。亞馬遜的機器學習專家們發現,他們多年努力打造的人力招聘 AI,竟然有著性別歧視的嚴重問題。

電腦領域有句諺語叫「垃圾進,垃圾出。」意指輸入錯誤的數據,得到的也是毫無意義的結果,而亞馬遜 AI 的表現,正是這句話的最好例證。

亞馬遜的研究團隊自 2014 年開始打造人力招聘 AI,但在 2015 年時,專家們發現 AI 對軟體開發等技術職位竟有著性別歧視。這是因為訓練 AI 使用的是亞馬遜過往 10 年的招聘資料,反映出亞馬遜──甚至整個科技業重男輕女的傾向。


▲上方為全球員工的男女比,下方則為技術職位部份的男女比。(圖/翻攝自路透社)

路透社整理出了 Google、蘋果、Facebook、亞馬遜等科技業公司,自 2017 年起公佈的員工性別比,可以看出基本上都是男性佔多數,而在技術職位上差異更是驚人,可以到達 3:1 甚至 4:1 的程度。

根據《路透社》報導,知情人士透露,AI 會對與「女性」有關的詞彙進行扣分,例如「女子西洋棋社社長」,還降低了兩所女子大學畢業生的評價,學校名稱則未透露。

另外,AI 還偏好男性較常使用的字詞,如執行(executed)、捕獲(captured),這也對女性應徵者造成了不公平。更糟糕的是,研究團隊訓練使用的模型,對於鑑別專業能力毫無幫助,使 AI 偶爾會挑出不符職位所需的應徵者。

種種問題之下,最終亞馬遜於 2017 年解散了團隊,整個計畫宣告中止。對於這項工具,亞馬遜只表示從未實際運用在評比應徵者上。

但就如開頭提到的,運用 AI 技術乃時勢所趨,根據人資軟體公司 CareerBuilder 2017 年的調查結果,美國約 55% 的人資經理認為,未來 5 年內,AI 將成為工作中的一部分。

尤其對於大型企業而言,一個職位往往就能收到上百份履歷,若有辦法利用 AI 進行初步篩選,將能有效節省人力。雖然目前僅有少數公司實際以 AI 協助招聘,仍舊可說是一個無可避免的趨勢了。
1

丟雞蛋

讚一個
1

遞鮮花

酷斃了

我認同

被雷劈

剛表態過的朋友 (2 人)

發表評論

最新評論

引用 MusicalFans 2018-10-20 22:39
其實不算 junk in junk out 而是反映了 Amazon 歧視女性的事實

查看全部評論(1)

小黑屋|手機版|Archiver|信箱|愛女生BBS|隱私權條款|2GIRL女子拉拉學園

GMT+8, 2024-11-24 04:24 , Processed in 0.073380 second(s), 18 queries .

Powered by Discuz! X3.4

© 2001-2017 Comsenz Inc.

返回頂部