Nature 559, 324–326 (2018)
譯者:湯嘉誠
譯自: Nature 在 2018.07.18 所刊登的文章 “AI can be sexist and racist — it’s time to make it fair”
James Zou 和 Londa Schiebinger 主張,電腦科學家必須辨識出偏見的來源、去除訓練用資料的偏見 (de-bias),並開發出在扭曲的資料中仍能維穩的人工智慧演算法。
當 Google 翻譯將西班牙文的新聞轉譯為英文,提及女人的詞句往往會變成「他說」(he said)、「他寫道」(he wrote)。設計來警示 Nikon 相機使用者,其拍攝對象似乎在眨眼的軟體,往往將亞裔解讀成持續地在眨眼。詞嵌入 (word embedding,又稱為 word vector 詞向量) — — 一組用來處理並分析大量自然語言資料的演算法 — — 將歐裔美國人的名字描述為「愉快的/友善的」,而將非裔美國人的名字描繪為「令人不快的/不友善的」。
這些只是目前 AI 的應用已被揭露的,系統性歧視特定群體的許多案例的一小部分。
偏誤的決策對 AI 來說完全不是什麼特別的事,但如同許多研究者所提醒的(1),AI 的持續擴張讓這件事變得特別需要處理。確實,面對這個問題無所不在的本質,便意味著研究者需要系統性的解決方法。在此研究者研擬了一些可能的應對策略。
更詳盡的內容,請見:當 AI 學會了性別與種族歧視