性別、種族歧視爭議不斷,企業該如何避免AI偏見? 精選

2022.10.14   楊育青|知勢|2021.02.04
刊載於專欄 新聞分享
给本項目評分
(0 得票數)

自AI開始被應用以來,被指控性別、種族歧視的事件層出不窮,例如Google、Amazon等企業皆曾在AI應用上發生歧視的爭議。面對越來越多的AI應用,以及全球司法對於 AI 人工智慧關注,企業有必要在演算法的設計、開發、維護上提前部署和遵守以避免偏見的產生。

積極的建議作為包括:1.依照具體的公平目標來設計 AI 模型、2.採用具有代表性的數據庫來訓練和測試模型、3.檢查 AI 系統的偏見。不僅開發者要能在知道問題後修正偏見,也要遵守監管單位對AI決策過程須透明、能理解的要求。同時,執行者也要認知到無法滿足所有人,因此務實鎖定目標年齡層、族群、語言等,力求公平,持續追蹤,並根據使用者的使用方式,不時更新訓練和測試的數據庫。

(封面出處:轉自「知勢」)

625 最後修改於 %2022.%10.%14
此分類更多內容: