自在自线亚洲а∨天堂在线-中文字幕一区视频播放-扒开双腿猛进入喷水高潮叫声-欧美日本亚洲一区二区-老熟妇高潮偷拍一区二区-国产精品高清一区二区不卡-午夜色福利视频一区二区三区-亚洲国产成人精品福利在线观看-亚洲欧美成人一区二区在线电影

機(jī)電之家 > 機(jī)電號(hào) > 正文 申請(qǐng)入駐

科技的白人男性勞動(dòng)力如何向人工智能提供偏見(jiàn)

大約80%的人工智能教授都是男性,而女性在facebook的人工智能研究人員中占15%,在谷歌則占10%。

對(duì)于主要科技公司的黑人員工,這一比例甚至更低,谷歌只有2.5%,facebook和微軟只有4%。

一項(xiàng)新研究表明,當(dāng)人工智能項(xiàng)目由大多數(shù)白人男性工作者構(gòu)建時(shí),偏見(jiàn)滲透,他們強(qiáng)調(diào)“對(duì)'正常'人的狹隘觀念”。

根據(jù)紐約大學(xué)ai now研究所的一份新報(bào)告,科技行業(yè)大多數(shù)白人男性編碼人員正在制造“多元化危機(jī)”,其偏見(jiàn)滲透到面部識(shí)別程序和聊天機(jī)器人等產(chǎn)品中。該報(bào)告重點(diǎn)介紹了google,facebook和微軟等主要科技公司的勞動(dòng)力性別失衡如何幫助人工智能中的偏見(jiàn)。

ai用于從面部識(shí)別到聊天機(jī)器人的各種產(chǎn)品。但該報(bào)告指出,在facebook上只有15%的人工智能研究人員是女性,而對(duì)谷歌來(lái)說(shuō),它甚至更低,為10%。

這強(qiáng)調(diào)了該研究的作者所說(shuō)的反映多元化社會(huì)的多元化勞動(dòng)力的重要性。他們認(rèn)為,科技行業(yè)的大多數(shù)白人男性人工智能編碼器與技術(shù)產(chǎn)品中的偏見(jiàn)有關(guān)。他們表示,對(duì)問(wèn)題進(jìn)行補(bǔ)救將需要更廣泛的多樣性方法,包括從精英校園以外的大學(xué)招聘,以及提高ai產(chǎn)品的透明度。

“到目前為止,人工智能行業(yè)的多樣性問(wèn)題以及它所構(gòu)建的系統(tǒng)中的偏見(jiàn)問(wèn)題都傾向于單獨(dú)考慮,”作者sarah myers west,meredith whittaker和kate crawford寫(xiě)道。“但我們認(rèn)為這些是同一問(wèn)題的兩個(gè)版本:勞動(dòng)力和制度建設(shè)中的歧視問(wèn)題深深地交織在一起。”

“'正常'人的狹隘觀念”

研究人員寫(xiě)道,不僅人工智能可能會(huì)歧視某些類型的人,而且它“對(duì)他人有利,加強(qiáng)了對(duì)'正常'人的狹隘觀念”。

該報(bào)告強(qiáng)調(diào)了人工智能計(jì)劃為已經(jīng)遭受偏見(jiàn)的群體創(chuàng)造有害環(huán)境的幾種方式。其中包括:

亞馬遜人工智能招聘工具掃描申請(qǐng)人的簡(jiǎn)歷依賴于之前的招聘簡(jiǎn)歷,為理想的招聘設(shè)定標(biāo)準(zhǔn)。然而,人工智能開(kāi)始降低參加女子學(xué)院的申請(qǐng)人的評(píng)級(jí),或者在簡(jiǎn)歷中加入“女性”一詞。

亞馬遜的rekognition面部分析計(jì)劃難以識(shí)別黑皮膚的女性。根據(jù)一份報(bào)告,該計(jì)劃誤認(rèn)為他們是男性,雖然該計(jì)劃沒(méi)有任何問(wèn)題識(shí)別男性的任何膚色。

“深切關(guān)注”

對(duì)于人工智能內(nèi)部的偏見(jiàn)問(wèn)題,紐約大學(xué)并不是第一個(gè)發(fā)出警告的人。諸如麻省理工學(xué)院技術(shù)評(píng)論和aclu等團(tuán)體已經(jīng)記錄了影響招聘和刑事判決等問(wèn)題的問(wèn)題結(jié)果。

麻省理工學(xué)院技術(shù)評(píng)論指出,問(wèn)題源于深度學(xué)習(xí)階段,當(dāng)編碼員通過(guò)培訓(xùn)數(shù)據(jù)“教授”一個(gè)項(xiàng)目時(shí)。程序員可以依靠不能準(zhǔn)確反映世界的數(shù)據(jù)集來(lái)向系統(tǒng)添加偏見(jiàn),例如依賴包含極少數(shù)黑人的面部圖像。

程序員還可以通過(guò)確定哪些屬性很重要來(lái)增加偏見(jiàn) - 例如性別。如果一家公司以前的雇員大多是男性,該計(jì)劃可能會(huì)學(xué)習(xí)排除女性,如亞馬遜的招聘計(jì)劃,加強(qiáng)了招聘的偏見(jiàn)模式。

“人工智能系統(tǒng)用于種族和性別的分類,檢測(cè)和預(yù)測(cè)是迫切需要重新評(píng)估的,”紐約大學(xué)的研究人員指出。“這些工具的商業(yè)部署引起了人們的深切關(guān)注。”

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“機(jī)電號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of JDZJ Hao, which is a social media platform and only provides information storage services.

/企業(yè)主營(yíng)產(chǎn)品/
/閱讀下一篇/

獵蘿卜成功入選智享會(huì)“2019人工智能技

相關(guān)推薦
熱點(diǎn)推薦
165854文章數(shù) 1351關(guān)注度
往期回顧 全部

設(shè)備相關(guān)熱點(diǎn)

設(shè)備相關(guān)推薦

頭條要聞

設(shè)備要聞

設(shè)備資訊

往期設(shè)備要聞