共用方式為


什麼是負責任 AI?

適用於:Azure CLI ml 延伸模組 v2 (目前)Python SDK azure-ai-ml v2 (目前)

負責任的人工智慧 (Responsible AI) 是一種安全、合乎道德且信任地開發、評估和部署 AI 系統的方法。 人工智慧系統是由其創建者做出的許多決定產生的。 負責任的人工智慧有助於指導這些決策——從定義系統目的到使用者互動——走向更有利和公平的結果。 它將人及其目標置於設計的中心,並尊重公平、可靠和透明等價值觀。

Microsoft 創建了負責 任的 AI 標準,這是一個基於六項原則構建 AI 系統的框架:公平、可靠性和安全、隱私和安全、包容性、透明度和問責制。 這些原則是負責任和值得信賴的人工智慧方法的基礎,特別是隨著智慧技術在日常產品和服務中變得越來越普遍。

本文說明 Azure Machine Learning 如何提供工具,協助開發人員和資料科學家實作和操作這六項原則。

 Microsoft 負責任 AI 六大準則的圖表,其中包含公平性、可靠性與安全性、隱私權與保密性、包容性、透明度,以及權責。

公平性和包容性

人工智慧系統應該公平對待每個人,避免對相似群體產生不同的影響。 例如,當人工智慧系統提供醫療、貸款申請或就業指導時,它們應該向具有相似症狀、經濟狀況或資格的人提出相同的建議。

Azure Machine Learning 中的公平性和包容性負責任 AI 儀錶板公平性評估元件可協助評估敏感性群組的模型公平性,例如性別、種族、年齡和其他特徵。

可靠性和安全性

為了建立信任,AI 系統必須可靠、安全且一致地運作。 它們應該按設計運行,安全地應對意外情況,並抵抗有害操縱。 它們的行為和處理不同條件的能力反映了開發人員在設計和測試過程中預期的情況範圍。

Azure Machine Learning 中的可靠性和安全性負責任 AI 儀錶板錯誤分析元件可協助您:

  • 深入了解模型的失敗分佈情況。
  • 識別比整體基準具有更高錯誤率的資料世代 (子集)。

當系統或模型在特定人口統計群體或訓練資料中很少觀察到的輸入條件表現不佳時,可能會發生這些差異。

透明

當人工智慧系統為影響人們生活的決策提供資訊時,人們了解這些決策是如何做出的至關重要的。 例如,銀行可能會使用人工智慧系統來決定一個人是否信譽良好,或者公司可能會使用人工智慧系統來選擇求職者。

透明度的一個關鍵部分是 可解釋性:提供人工智慧系統行為的有用解釋。 提高可解釋性有助於利害關係人了解人工智慧系統的工作方式和原因,以便他們能夠識別效能問題、公平問題、排他性做法或意外結果。

Azure Machine Learning 中的透明度負責任 AI 儀錶板模型可解譯性和反事實假設元件可協助產生模型預測的人類可理解描述。

模型可解釋性元件提供模型行為的數個視圖:

  • 全域說明。 例如,哪些特徵會影響貸款配置模型的整體行為?
  • 局部說明。 例如,客戶的貸款申請為何通過核准或遭拒絕?
  • 所選資料點世代的模型說明。 例如,哪些特徵會影響低收入申請者貸款配置模型的整體行為?

反事實假設元件可協助您瞭解和偵錯機器學習模型,方法是顯示機器學習模型如何對特徵變更和擾動做出反應。

Azure Machine Learning 也支援負責任 AI 計分卡。 計分卡是可自訂的 PDF 報告,開發人員可以設定、產生、下載並與技術和非技術利害關係人共用。 它有助於教育利害關係人有關資料集和模型健康情況、實現合規性並建立信任。 計分卡還可以透過揭示機器學習模型特徵來支援稽核審查。

隱私權與安全性

隨著人工智慧變得越來越普遍,保護隱私以及保護個人和商業資訊變得更加重要和複雜。 隱私和資料安全需要密切關注,因為人工智慧系統需要數據來做出準確的預測和決策。 AI 系統必須遵守下列隱私權法律:

  • 要求資料收集、使用及儲存相關透明度。
  • 要求取用者具有適當控制權,以選擇其資料的使用方式。

Azure Machine Learning 中的隱私權和安全性:Azure Machine Learning 可讓系統管理員和開發人員建立符合公司原則的安全 設定 。 使用 Azure Machine Learning 和 Azure 平台,您可以:

  • 依使用者帳戶或群組限制資源和作業的存取權。
  • 限制連入和連出的網路通訊。
  • 加密傳輸和待用的資料。
  • 掃描弱點。
  • 套用和稽核設定原則。

Microsoft 也建立了兩個開放原始碼套件來協助實作隱私權和安全性原則:

  • SmartNoise:差異隱私權是一組系統和實務,可協助保護個人資料的安全和隱私。 在機器學習解決方案中,法規合規性可能需要差異隱私權。 SmartNoise 是一個開放原始碼專案 (由 Microsoft 共同開發),其中包含用於建置全域差異隱私系統的元件。

  • Counterfit:Counterfit 是一個開放原始碼專案,其中包含命令列工具和一般自動化層,可讓開發人員針對 AI 系統模擬網路攻擊。 任何人都可以下載此工具,然後透過 Azure Cloud Shell 進行部署以在瀏覽器中執行,或是在本機的 Anaconda Python 環境中進行部署。 其可以評估裝載於各種雲端環境、內部部署或邊緣的 AI 模型。 此工具與 AI 模型無關,並支援各種資料類型,包括文字、影像或一般輸入。

當責

設計和部署人工智慧系統的人員必須對這些系統的運作方式負責。 組織應使用行業標準來制定問責規範。 這些規範有助於確保人工智慧系統不是影響人們生活的決策的最終權威,並確保人類對高度自主的系統保持有意義的控制。

Azure Machine Learning 中的責任:機器學習作業 (MLOps) 是以 DevOps 原則和做法為基礎,可改善 AI 工作流程效率。 Azure Machine Learning 提供下列 MLOps 功能,以取得更好的責任:

  • 隨處註冊、封裝和部署模型。 您也可以追蹤使用模型所需的相關中繼資料。
  • 擷取端對端機器學習生命週期的治理資料。 記錄的譜系資訊可能包括正在發佈模型的人員、進行變更的原因,以及在生產環境中部署或使用模型的時間。
  • 通知並警示機器學習生命週期中的事件。 範例包括實驗完成、模型註冊、模型部署和資料漂移偵測。
  • 監視應用程式是否有操作問題以及與機器學習相關的問題。 比較定型和推斷之間的模型輸入、探索模型特定的計量,並在機器學習基礎結構上提供監視和警示。

此外,Azure Machine Learning 中的 負責任 AI 計分卡 會藉由啟用跨專案關係人通訊來建立責任。 計分卡可讓開發人員設定、下載模型健康情況深入解析,並與技術和非技術專案關係人共用。 分享這些見解有助於建立信任。

Azure Machine Learning 也會透過下列方式通知商務決策,以支援決策:

  • 數據驅動的見解,可幫助利益相關者僅使用歷史數據了解因果治療對結果的影響。 例如,“藥物會如何影響患者的血壓?這些見解來自負責任 AI 儀表板因果推論元件。
  • 模型導向見解,可回答使用者問題 (例如「下次我該怎麼做才能從您的 AI 獲得不同的結果?」),以便他們採取行動。 這些見解是透過負責任的 AI 儀表板反事實假設元件提供的。

下一步