MIT開發新方法,減少AI偏見,同時不會降低預測結果準確性

編譯:chux

出品:ATYUN訂閱號

AI偏見導致社交媒體中部署的預測模型在搜索結果或用戶體驗方面表現不佳,但當AI用於醫療保健,自動駕駛汽車,刑事司法或預測性警務策略等事件時,它可能會對人的生命產生嚴重的負面影響。在這個幾乎所有行業都會部署AI的時代,這可能導致持續的系統偏差。

現在,麻省理工學院計算機科學人工智能實驗室(CSAIL)研究人員開發了一種減少AI偏見的方法,同時又不降低預測結果的準確性。

麻省理工學院教授David Sontag表示:“我們認爲這是一個工具箱,可幫助機器學習工程師弄清楚對於數據要提出什麼問題,以便診斷系統爲什麼會做出不公平的預測。”這篇論文由Sontag和博士生Irene Chen以及博士後助理Fredrik D. Johansson共同撰寫。

Sontag說,關鍵是從代表性不足的羣體中獲取更多數據。例如,研究人員發現,在一個案例中,AI模型將女性標記爲低收入比把男性標記爲高收入的可能性高兩倍。通過將數據集中女性的代表性提高10倍,不準確結果的數量減少了40%。

傳統方法可能建議將與多數人羣相關的數據集隨機化,作爲解決不同人羣不公平結果的一種方法,但這種方法可能意味着權衡較低的預測準確性,以實現所有人羣的公平性。

團隊表示,“在這項工作中,我們認爲預測的公平性應該在數據的背景下進行評估,並且樣本量不足或未測量的預測變量引起的不公平性應該通過數據收集來解決,而不是通過約束模型來解決,”論文題目爲“爲什麼我的分類器帶有偏見”。

預測準確性的差異有時可以通過缺乏數據或不可預測的結果來解釋。研究人員建議在進行公平標準評論之前,對模型偏差,模型方差和結果噪聲進行AI模型分析。

團隊表示,“這揭示並分離了數據收集不足和模型選擇對公平性的不利影響。公平的代價並不一定總是預測準確性,而是數據收集和模型開發的投資。在高風險的應用程序中,其收益往往超過成本。”

一旦進行了這些評估,這組研究人員提出了評估收集額外訓練樣本的影響的程序,然後對數據進行聚類,以確定得到不相等結果的亞羣,以指導額外的變量收集。結果將於下個月在NIPS上公佈。

由於人們越來越擔心AI產生的偏見會產生影響人類生活的不準確結果,因此許多公司引入了許多工具和方法:今年春天,創業公司Pymetrics開放了其偏見檢測工具Audit AI,而在9月,IBM推出了算法偏見檢測雲服務,谷歌通過假設工具和TensorBoard引入了AI偏見可視化。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章