男女分不清 亞馬遜面部識別存在性別和種族歧視
2019-01-28 13:43:38 來源:環球網
麻省理工學院研究發現,亞馬遜面部識別軟件Rekognition在性別識別中未能成功識別女性和膚色較深的女性,但卻成功識別了膚色較白的男性。亞馬遜員工和投資者已經敦促亞馬遜停止向警方銷售此軟件。
亞馬遜面部識別軟件Rekognition向來飽受爭議,而如今這款軟件面臨著新的批判。麻省理工學院媒體實驗室進行的一項研究發現,Rekognition可能存在性別歧視和種族偏見。
該軟件在識別女性和膚色較深女性時,性別識別能力尤為下降。在要對一些女性面孔進行識別時,該軟件將其中19%的女性面孔錯誤標記為男性。而在識別膚色較深的女性面孔時,Rekognition的識別能力則更差——錯將其中31%的女性面孔標記為男性。相比之下,Rekognition對膚色較白的男性成功進行了識別。
麻省理工學院發現,IBM和微軟開發的類似軟件的識別能力要比Rekognition更出色。具體而言,微軟開發的軟件僅把1.5%膚色較深的女性面孔識別為男性。
去年2月,麻省理工學院研究員喬伊• 伯拉姆維尼進行了一項類似的研究。他發現,由IBM,微軟創建的面部分析軟件在種族和性別偏見方面都存在問題。該項研究引起了這些公司的強烈反對。隨后,微軟和IBM承諾重組其面部識別軟件,提高識別準確度。與此同時,亞馬遜在研究結果發表后沒有做出任何改變。在美國科技網站Verge發表的一份聲明中,亞馬遜稱麻省理工的研究人員沒有使用其最新版本的Rekognition。
馬特•伍德是亞馬遜網絡服務深度學習和人工智能總經理。他在一份聲明中表示,“根據通過使用面部分析而得到的結果,對任何用途(包括執法)的面部識別準確性得出結論,這都是不可能的。”
專家以及進行上述報告的研究員警告稱,面部識別軟件如果仍然存在性別歧視和種族偏見的問題,可能導致種族貌相和其他不公正的后果。喬伊• 伯拉姆維尼和德博拉•拉吉認為,除了修復軟件中的偏差以確保識別結果公正之外,還有更多的工作要完成。
據信,美國聯邦調查局即將對亞馬遜的Rekognition進行測試,而亞馬遜已將其軟件出售給奧蘭多市和俄勒岡州華盛頓縣的執法機構,警方似乎正在利用該軟件檢查身份不明的嫌犯的照片,并對縣監獄的照片數據庫進行檢查。據信,亞馬遜還向美國移民海關執法提供了這項技術。(實習編譯:王驛風 審稿:李宗澤)
關鍵詞:
相關閱讀