從網(wǎng)站資訊推薦,到醫(yī)療保健系統(tǒng),再到街頭監(jiān)控攝像,在現(xiàn)實世界中,算法無處不在,偏見與歧視也是如此,并帶來了現(xiàn)實的負(fù)面影響。
算法歧視
什么是算法歧視?微軟研究院巴羅卡斯(Solon Barocas)和加州大學(xué)洛杉磯分校法學(xué)院的塞布斯特(Andrew D.Selbst)在聯(lián)合報告中認(rèn)為,算法自動化決策可能給某些群體帶來歧視性的不利結(jié)果。算法模型的所有思想都是外來的,來源于人類的經(jīng)驗。人工智能的研究對象模型存在嚴(yán)重的不確定性,即對深度學(xué)習(xí)的“黑盒子”知之甚少,且受訓(xùn)練投喂數(shù)據(jù)的影響較大。 當(dāng)數(shù)據(jù)被錯誤使用,算法模型可能會進一步強化種族主義和性別歧視等刻板印象,得出帶有偏見和歧視的錯誤結(jié)論。因此,偏見實際上來自于人類自身、技術(shù)瓶頸和數(shù)據(jù)誤用,在讓算法成為“決策者”之前,必須確保其擁有正確的價值觀,否則就應(yīng)該被丟棄。
流程圖
多團隊共同參與 AI 算法價值觀的制定
網(wǎng)易智企旗下易盾利用 AI 技術(shù)賦能企業(yè)完成數(shù)字內(nèi)容風(fēng)控,也意識到了 AI 系統(tǒng)發(fā)展過程中的社會問題。當(dāng)前,團隊從數(shù)據(jù)收集、數(shù)據(jù)訓(xùn)練、模型搭建、標(biāo)準(zhǔn)制定等環(huán)節(jié)出發(fā),有效消除偏見與歧視,在可信 AI “公平性”指標(biāo)上積累了寶貴經(jīng)驗。
標(biāo)準(zhǔn)讓機器體系化、具體化判斷
運營鏈接客戶需求與算法標(biāo)準(zhǔn)的透明可解釋性
談到暴恐問題時,大家可能下意識會聯(lián)想到某些民族與有色人種,這是由于受眾在大環(huán)境和過往新聞的影響中產(chǎn)生“先入為主”的感知。此外,在大家認(rèn)知中,穿著多少與胸的大小被納入到“女性群體低俗與否”的考量中,即使這個女性什么也沒有做,即使是同樣的姿勢與拍攝角度。 “哪怕告訴自己秉承客觀的心態(tài)看待,每個人對事物的評判結(jié)果也是存在差異的?!必?fù)責(zé)制定 AI 判斷標(biāo)準(zhǔn)的策略專家汪夢閃說。標(biāo)準(zhǔn)的制定是模型訓(xùn)練前的重要環(huán)節(jié),涉及到兩個方面,一個是針對數(shù)據(jù)收集的標(biāo)準(zhǔn),另一個是針對算法模型的標(biāo)準(zhǔn),最終目的是希望讓算法模型盡可能客觀地判斷。 她在客戶溝通中也發(fā)現(xiàn),運營端從標(biāo)準(zhǔn)制定開始,就要去平衡原始需求,一個挑戰(zhàn)在于客戶需求向標(biāo)準(zhǔn)的轉(zhuǎn)化如何能在滿足需求的同時更加客觀。部分獨特的需求,本身就帶有偏見的影子,不能直接照搬到模型訓(xùn)練中,需要去結(jié)合一些因素。 過程中,標(biāo)準(zhǔn)會被進一步細(xì)化、具體化與客觀化,落實到?jīng)芪挤置鞯慕缦拗?,才不容易出現(xiàn)偏見。 “我們很難直接讓機器去理解‘色情’、‘性感’是什么,一刀切就極易存在偏見,更客觀的做法是細(xì)化、量化標(biāo)準(zhǔn),如胳膊、胸部和腿部等身體部位的裸露?!蓖魤糸W介紹說,如果不給任何客觀的描述和標(biāo)簽,僅憑個人感覺來判斷“性感”,大概率的數(shù)據(jù)都是諸如身材姣好的女性之類。 為了避免標(biāo)準(zhǔn)固化,標(biāo)準(zhǔn)還須進行動態(tài)調(diào)整。2022 年的色情性感標(biāo)準(zhǔn)與 5 年、10 年前的標(biāo)準(zhǔn)相比,肯定有很大差異。例如,2021 年我國最高人民法院細(xì)化了未成年人淫穢色情物品識別標(biāo)準(zhǔn),讓未成年人免受“線上侵害”逐漸凸顯出來。 AI 是人類的鏡子,映射的是人類本來就存在的偏見與歧視,標(biāo)準(zhǔn)是人類偏見與歧視流向 AI 的另一個重要管道。在易盾,標(biāo)準(zhǔn)不是一個組或一個人決定,是運營、算法和標(biāo)注三方跨團隊的合作,避免有一方存在固化的思維??绱诡惖暮献?,能夠更好地消除一些潛移默化的連自己都無從感知的偏見。
打標(biāo)任務(wù)中的問題界定
標(biāo)注人員在處理數(shù)據(jù)
“挺感動的吧,教出來了,至少有一個初中生的心智或智慧了,它有自己的判斷,但還是會出錯,這個時候就需要我們?nèi)フ{(diào)整?!比温氂谝锥軘?shù)據(jù)標(biāo)注部的孔杰激動地說。 孔杰在過去幾個月先后標(biāo)注了幾萬條“問題”數(shù)據(jù),協(xié)助 AI 算法工程師完成欺詐模型的訓(xùn)練。過去,他和團隊成員的任務(wù)各不相同,有的負(fù)責(zé)文本,有的負(fù)責(zé)圖片,有的負(fù)責(zé)語音,一個共同點是給數(shù)字化內(nèi)容打上標(biāo)簽,識別出其中的不良行為。人工智能的崛起催生了一系列新興職業(yè),數(shù)據(jù)標(biāo)注員、AI 工程師、數(shù)據(jù)科學(xué)家等陌生的名詞進入大眾的視野。平日里,他們穿梭于機器模型與數(shù)據(jù)之間,職責(zé)在于讓 AI 技術(shù)更好地服務(wù)于業(yè)務(wù),又快又好地自動執(zhí)行完一項項任務(wù),代替重復(fù)的人力勞作。數(shù)據(jù)標(biāo)注崗的工作任務(wù)就是輔助機器去學(xué)習(xí)任務(wù),相當(dāng)于人工智能的助教。在崗位上,孔杰首先要輸出自己的判斷,一遍遍不厭其煩地教育著工程師搭建的 AI 機器模型,讓機器模型知道這些內(nèi)容數(shù)據(jù)中存在這樣或那樣的問題。 判斷本身就是難題,一個隨意的結(jié)論,極有可能將人類的偏見,如種族主義、性別歧視、仇外心理、社會經(jīng)濟歧視、確認(rèn)偏見等,帶入算法模型中。 在欺詐用戶識別的任務(wù)中,為了盡可能地提升公平性,“欺詐嫌疑”的落實,不僅需要多位人員的判斷,也需要多個維度的查驗,即多方審核制度。 孔杰負(fù)責(zé)多方審核中的第一層,通過排查發(fā)言數(shù)據(jù)與行為信息,嚴(yán)格排查數(shù)據(jù)中的引流、廣告、聯(lián)系方式變種等行為,對行為上有高嫌疑動作的用戶打上“欺詐嫌疑”標(biāo)簽。接下來,還有其他人結(jié)合產(chǎn)品與其他實際情況進行判斷,是“加黑”還是“退回”,多人多次篩選最終才得出結(jié)論。以引流為例,平臺中有賬號試圖將用戶引向微信或 QQ 等別的平臺,甚至是拉到一些更隱秘、更小眾的第三方交流點,對平臺用戶威脅極大。多層的數(shù)據(jù)標(biāo)注,讓機器逐漸懂得大致的判斷標(biāo)準(zhǔn)?!捌渌较虻臄?shù)據(jù)確實很多,機器除了識別問題用戶,還可以篩掉一些正常用戶,減少誤判導(dǎo)致的用戶投訴?!笨捉苷f。 分歧討論是促進公平性的另一個契機。團隊小心謹(jǐn)慎地對待每一次數(shù)據(jù)打標(biāo),存在分歧的困難標(biāo)注任務(wù)往往要花了好幾天時間才能解決。 成員們遇到多次打標(biāo)不一致的數(shù)據(jù),就得開展專題研討會,直到達成統(tǒng)一的標(biāo)準(zhǔn)。“對于一個問題討論,一開始分歧比較多,交流之后才能統(tǒng)一想法?!笨捉苷f。幾期培訓(xùn)之后,形形色色的詐騙話術(shù)逐漸為模型所熟知,并能夠舉一反三、獨立自主地決策,甚至有著超越一般人的詐騙洞察能力,不僅能從內(nèi)容上攔截,也能從用戶行為上進行分析。文字與圖片中暗藏詐騙風(fēng)險,但都過不了 AI 模型的“法眼”。
算法工程師全鏈路跟蹤偏見
公平性是可信 AI 至關(guān)重要的要求之一
每分每秒,人工智能都在決定數(shù)字內(nèi)容的去留,成為在社交網(wǎng)絡(luò)空間的隱形決策者。 AI 系統(tǒng)中的不公平性也顯著暴露出來,簡單來說,就是作為人工智能大腦的“黑箱”中出現(xiàn)的各類偏見,如性別歧視、種族偏見、就業(yè)歧視、教育歧視、價格歧視、犯罪行為預(yù)測偏見等。易盾資深算法工程師崔若璇在可信 AI 的直播中提到,不少算法產(chǎn)生偏見問題在于所依賴的數(shù)據(jù)。 掃描二維碼,回顧直播
隨著人工智能的普及,美國開始使用 AI 算法來預(yù)測罪犯的犯罪行為。美國“為了人民”網(wǎng)站對 COMPAS 系統(tǒng)分析發(fā)現(xiàn),該預(yù)測算法卻對黑人有偏見:相比白人,黑人被告更容易被判斷為有更高的累犯風(fēng)險。 “這是因為算法都是基于歷史犯罪統(tǒng)計數(shù)據(jù)來預(yù)測未來的犯罪行為?!贝奕翳f。值得注意的是,上述預(yù)測算法很容易受到逮捕率的影響,根據(jù)美國司法部的數(shù)據(jù),黑人被捕數(shù)的可能性是白人的兩倍多。
類似的事件還有不少,Google 公司的圖像識別程序也曾將黑人標(biāo)注成大猩猩;麻省理工學(xué)院將其用于訓(xùn)練 AI 系統(tǒng)的數(shù)據(jù)集“Tiny Images”永久下線,因其中帶有許多涉及種族歧視、性別歧視、戀童癖等傾向的圖像和標(biāo)簽;Amazon 公司的人力資源算法在分析應(yīng)聘者時,一旦出現(xiàn)“女性”或“女性特征”就會降低應(yīng)聘者排名;人臉識別在身份安全驗證中日漸流行,但不公平性也逐漸顯露。
哈佛大學(xué)的一項研究表明,大部分人臉識別算法具有高達 90% 以上的準(zhǔn)確率,但是這一概率并不普遍,其中女性、黑人、18-30 歲的受試者有著較差的準(zhǔn)確性。 “數(shù)據(jù)采集環(huán)節(jié)就得考慮數(shù)據(jù)在人種、性別、年齡等方面的多樣性,否則可能引入偏見。”崔若璇表示,此外,訓(xùn)練過程不加以約束就會固化偏見,輸出結(jié)果不加處理也會放過偏見,為了減少算法偏見,算法、工程、數(shù)據(jù)、運營、標(biāo)注、產(chǎn)品團隊的協(xié)力配合,每個環(huán)節(jié)都不能掉以輕心。崔若璇所在的算法團隊對數(shù)據(jù)進行了相關(guān)預(yù)處理操作,盡量減少訓(xùn)練素材中的偏見因素,在模型搭建與訓(xùn)練過程中,引入了針對性的公平性量化指標(biāo),實時對訓(xùn)練過程進行監(jiān)測和量化評估,避免偏見固化,主要可分為以下三個階段:
首先,易盾 AI 實驗室在數(shù)據(jù)收集階段保證收集過程,全面、多樣、及時更新,并且會結(jié)合一系列數(shù)據(jù)預(yù)處理、重采樣等措施,達到“保質(zhì)保量”的效果,在數(shù)據(jù)源頭就保證盡可能地消除偏見。
其次,在模型訓(xùn)練階段,引入公平性相關(guān)的量化指標(biāo),對其開展監(jiān)測,并對模型的數(shù)據(jù)結(jié)果也進行公平性相關(guān)指標(biāo)的考察和調(diào)整。
最后,在結(jié)果輸出階段,對輸出結(jié)果進行“公平性的再判定”,盡量減少決策偏見。
在易盾,AI 技術(shù)被應(yīng)用于數(shù)字風(fēng)控,例如算法幫助人類審核內(nèi)容及賬戶,快速識別風(fēng)險,審核算法的公平性打造被放在突出位置。
結(jié)語
作家雪萊在科學(xué)幻想小說中提出了科學(xué)怪人的恐懼,人造人在被賦予智慧與意識之后,有了超出人們料想的訴求,就像當(dāng)下的 AI 算法無意識產(chǎn)出的偏見與歧視一樣。在人工智能盛行的今天,我們?nèi)绾闻c之和諧共處仍留待我們探討。
免責(zé)聲明:以上內(nèi)容為本網(wǎng)站轉(zhuǎn)自其它媒體,相關(guān)信息僅為傳遞更多信息之目的,不代表本網(wǎng)觀點,亦不代表本網(wǎng)站贊同其觀點或證實其內(nèi)容的真實性。如稿件版權(quán)單位或個人不想在本網(wǎng)發(fā)布,可與本網(wǎng)聯(lián)系,本網(wǎng)視情況可立即將其撤除。
互聯(lián)網(wǎng)新聞信息服務(wù)許可證10120230012 信息網(wǎng)絡(luò)傳播視聽節(jié)目許可證0121673 增值電信業(yè)務(wù)經(jīng)營許可證京B2-20171219 廣播電視節(jié)目制作經(jīng)營許可證(京)字第10250號
關(guān)于我們 中宏網(wǎng)動態(tài) 廣告服務(wù) 中宏網(wǎng)版權(quán)所有 京ICP備2023030128號-1 舉報電話:010-63359623
Copyright ? 2016-2025 by www.uokii.com. all rights reserved 運營管理:國家發(fā)展和改革委員會宏觀經(jīng)濟雜志社