對 AI 採取謹慎的方法如何減少有偏見的數據集

有偏見的數據集和道德人工智能

人工智能驅動的解決方案需要數據集才能有效。 這些數據集的創建在系統層面上充滿了隱性偏見問題。 所有人都遭受偏見(有意識的和無意識的)。 偏見可以有多種形式:地理、語言、社會經濟、性別歧視和種族主義。 並且這些系統性偏見會被納入數據,這可能會導致人工智能產品延續和放大偏見。 組織需要一種謹慎的方法來減輕偏見蔓延到數據集中的情況。

說明偏差問題的示例

這種數據集偏見在當時引起了大量負面新聞的一個顯著例子是簡歷閱讀解決方案,該解決方案偏向男性候選人而不是女性候選人。 這是因為招聘工具的數據集是使用過去十年中大多數申請人為男性的簡歷開發的。 數據有偏差,結果反映了這種偏差。 

另一個廣為報導的例子:在一年一度的 Google I/O 開發者大會上,Google 分享了一個 AI 驅動的皮膚科輔助工具的預覽,該工具可幫助人們了解與皮膚、頭髮和指甲相關的問題正在發生的事情。 皮膚科助理強調了人工智能如何發展以幫助醫療保健 - 但它也強調了在批評該工具不適用於有色人種之後偏見蔓延到人工智能中的可能性。

當谷歌宣布該工具時,該公司指出:

為確保我們為所有人打造,我們的模型考慮了年齡、性別、種族和皮膚類型等因素——從不會曬黑的蒼白皮膚到很少曬傷的棕色皮膚。

谷歌,使用人工智能幫助尋找常見皮膚病的答案

但是 Vice 的一篇文章說谷歌沒有使用包容性數據集:

為了完成這項任務,研究人員使用了位於兩個州的 64,837 名患者的 12,399 張圖像的訓練數據集。 但在圖中的數千種皮膚狀況中,只有 3.5% 來自菲茨帕特里克皮膚類型 V 和 VI 的患者——分別代表棕色皮膚和深棕色或黑色皮膚。 根據這項研究,數據庫的 90% 是由皮膚白皙、皮膚較深的白色或淺棕色皮膚的人組成。 由於抽樣存在偏差,皮膚科醫生表示,該應用程序最終可能會過度或低估非白人的診斷。

Vice,谷歌的新皮膚科應用程序不是為膚色較深的人設計的

谷歌回應稱,它將在正式發布之前完善該工具:

我們的人工智能皮膚科輔助工具是三年多研究的結晶。 自從我們的工作出現在 Nature Medicine 上以來,我們不斷開發和完善我們的技術,並結合了其他數據集,其中包括數千人捐贈的數據以及數百万精選的皮膚問題圖像。

谷歌,使用人工智能幫助尋找常見皮膚病的答案

儘管我們可能希望人工智能和機器學習程序能夠糾正這些偏見,但現實仍然是:它們只是作為 智能 因為他們的數據集是乾淨的。 更新舊的編程格言 垃圾進垃圾出,AI 解決方案的強大程度取決於其數據集的質量。 如果沒有程序員的修正,這些數據集就沒有自我修正的背景經驗——因為它們根本沒有其他參考框架。

負責任地構建數據集是所有工作的核心 道德人工智能. 而人是解決方案的核心。 

Mindful AI 是道德 AI

偏見不會在真空中發生。 不道德或有偏見的數據集來自於在開發階段採取了錯誤的方法。 打擊偏見錯誤的方法是採用負責任的、以人為本的方法,業內許多人稱之為 Mindful AI。 Mindful AI 具有三個關鍵組件:

1. Mindful AI 以人為本

從人工智能項目開始,在規劃階段,人的需求必須是每個決策的中心。 這意味著所有人——不僅僅是一個子集。 這就是為什麼開發人員需要依靠全球人員組成的多元化團隊來訓練 AI 應用程序,使其具有包容性和無偏見。

來自全球多元化團隊的數據集眾包可確保儘早識別並過濾掉偏見。 不同種族、年齡組、性別、教育水平、社會經濟背景和地點的人可以更容易地發現偏愛一組價值觀而不是另一組價值觀的數據集,從而消除無意的偏見。

看看語音應用程序。 在應用有意識的 AI 方法並利用全球人才庫的力量時,開發人員可以考慮語言元素,例如數據集中的不同方言和口音。

從一開始就建立以人為本的設計框架至關重要。 它在確保生成、整理和標記的數據滿足最終用戶的期望方面大有幫助。 但在整個產品開發生命週期中讓人類參與其中也很重要。 

循環中的人類還可以幫助機器為每個特定受眾創造更好的 AI 體驗。 在文思海輝,我們遍布全球的 AI 數據項目團隊了解不同的文化和環境如何影響可靠的 AI 培訓數據的收集和管理。 在基於 AI 的解決方案上線之前,他們擁有標記問題、監控問題和修復問題所需的必要工具。

Human-in-the-loop AI 是一個項目“安全網”,它結合了人的力量——以及他們多樣化的背景與機器的快速計算能力。 這種人與人工智能的合作需要從項目一開始就建立起來,這樣有偏見的數據就不會成為項目的基礎。 

2. Mindful AI 是負責任的

負責任是為了確保人工智能係統沒有偏見,並且它們以道德為基礎。 這是關於注意數據的創建方式、原因和位置,人工智能係統如何合成數據,以及如何將其用於做出可能具有道德影響的決策。 企業這樣做的一種方法是與代表性不足的社區合作,以提高包容性和減少偏見。 在數據註釋領域,新研究強調了將每個註釋器的標籤視為單獨子任務的多註釋器多任務模型如何幫助緩解典型地面實況方法中固有的潛在問題,其中註釋器分歧可能是由於代表性不足和在將註釋聚合到單個基本事實時可能會被忽略。 

3. 值得信賴

可信度來自企業在 AI 模型的訓練方式、工作方式以及他們推薦結果的原因方面透明且可解釋。 企業需要 AI 本地化方面的專業知識,以使其客戶能夠使其 AI 應用程序更具包容性和個性化,尊重本地語言和用戶體驗中的關鍵細微差別,這些細微差別可以決定一個國家/地區到另一個國家/地區的 AI 解決方案的可信度. 例如,企業應針對個性化和本地化上下文設計其應用程序,包括基於語音的應用程序中的語言、方言和口音。 這樣,應用程序為每種語言(從英語到代表性不足的語言)帶來了相同級別的語音體驗複雜性。

公平與多元化

最終,有意識的人工智能確保解決方案建立在公平和多樣化的數據集上,在解決方案進入市場之前,監控和評估特定結果的後果和影響。 通過在解決方案開發的每個部分都保持謹慎並讓人類參與進來,我們幫助確保 AI 模型保持乾淨、偏差最小且盡可能合乎道德。

你覺得呢?

本網站使用Akismet來減少垃圾郵件。 了解您的評論如何處理.