在企業開始在 Fabric 中使用 Copilot 之前,您可能會有關於其運作方式、其如何保護您的商務數據並遵守隱私權需求,以及如何負責任地使用產生式 AI 的問題。
本文提供商務數據安全性和隱私權相關常見問題的解答,以協助貴組織開始使用 Copilot Fabric。 Power BI 預覽中的一文,
隱私權、Copilot安全性和負責任的使用
,提供了 Power BI Copilot 的概觀。 繼續閱讀Copilot以獲取有關 Fabric 的詳細資訊。
在您開始使用 Copilot之前,您的系統管理員必須先啟用租戶切換功能。 如需詳細資料,請參閱
Copilot 租用戶設定
一文。
您的 F2 或 P1 容量必須位於本文所列的其中一個區域:
Fabric 區域可用性
。
如果您的租戶或容量位於美國或法國以外,Copilot 預設為停用,除非您的 Fabric 租戶管理員在網狀架構管理入口網站中啟用
租戶設定,允許傳送至 Azure OpenAI 的
數據可以在租戶的地理區域、合規性界限或國家雲端實例以外進行處理。
Microsoft Fabric 中的 Copilot 不支援試用版 SKU。 僅支持付費 SKU(F2 或更新版本或 P1 或更高版本)。
如需詳細資訊,請參閱
Fabric 和 Power BI 中的 Copilot 概觀
一文。
商務數據是安全的
Copilot 功能使用完全由Microsoft控制的
Azure OpenAI 服務
。 您的數據不會用來定型模型,而且無法提供給其他客戶使用。
您可以保留資料的處理位置控制權。 除非您明確允許在您的地理區域外處理資料,否則由 Fabric 中 Copilot 處理的資料會保留在您的租用戶地理區域內。例如,當 Azure OpenAI 在您所在的區域無法使用或因高需求而供應有限時,您可以允許使用者使用 Copilot。 深入瞭解
Copilot的系統管理員設定
。
Copilot 不會儲存您的數據以用於濫用監視。 為了增強隱私和信任,我們更新了濫用監控的方法:先前,我們會在 Fabric 中保留數據 Copilot,其中包括提示的輸入和輸出,最多保存 30 天,以檢查濫用或誤用。 客戶意見反應之後,我們已排除此 30 天的保留期。 現在,我們不再儲存提示相關數據,示範我們對隱私權和安全性的堅定承諾。
檢查 Copilot 輸出
Copilot 回應可以包含不正確的或低品質的內容,因此請務必先檢閱輸出,再於工作中使用這些輸出。
能夠有意義地評估內容正確性和適當性的人員,應審查這些輸出。
今天,Copilot 功能在英文中效果最好。 其他語言的表現可能不如預期。
檢閱
Fabric 的補充預覽條款
,其中包括Microsoft產生式 AI 服務預覽版的使用規定。
Copilot 的運作方式
在本文中,
Copilot
指的是由 Azure OpenAI 服務提供之 Fabric 中的一系列產生 AI 特性和功能。
一般而言,這些功能的設計目的是根據下列項目來產生自然語言、程序代碼或其他內容:
(a)
您提供的輸入
,以及
(b) 特徵可存取的
參考數據
。
例如,Power BI、Data Factory 和數據科學提供 Copilot 聊天,您可以在其中詢問問題並取得與您數據內容相關的回應。
Copilot 針對 Power BI,也可以建立報表和其他視覺效果。
Copilot for Data Factory 可以轉換您的數據,並說明已套用的步驟。 數據科學提供 Copilot 的功能,這些功能位於聊天窗格之外,例如筆記本中的自定義IPython 魔法命令。
Copilot 聊天功能可能會新增到 Fabric 中的其他體驗,以及由 Azure OpenAI 在幕後驅動的其他功能。
這項資訊會傳送至 Azure OpenAI 服務,並在其中進行處理併產生輸出。 因此,Azure OpenAI 所處理的數據可能包括:
使用者的
提示或輸入
。
地面數據
。
AI 回應或輸出
。
基礎數據可能包含數據集架構、特定數據點,以及與使用者目前工作相關的其他信息的組合。 查看每個體驗區段,以了解在該情境中 Copilot 功能可以存取哪些資料的詳細資訊。
與 Copilot 的互動是每個使用者特有的。 這表示 Copilot 只能存取目前使用者有權存取的數據,而且只有該使用者才能看到其輸出,除非該使用者與其他人共享輸出,例如共用產生的 Power BI 報表或產生的程式代碼。
Copilot 不會使用相同租戶或其他租戶中其他用戶的數據。
Copilot 會使用 Azure OpenAI,而非公開提供的 OpenAI 服務來處理所有數據,包括使用者輸入、地面數據和 Copilot 輸出。
Copilot 目前使用多種 GPT 模型的組合,包括 GPT 3.5。 Microsoft裝載 Microsoft Azure 環境中的 OpenAI 模型,而且 Service 不會與 OpenAI 的任何服務互動,例如 ChatGPT 或 OpenAI API。 您的數據不會用來定型模型,而且無法提供給其他客戶使用。 深入了解
Azure OpenAI
。
檢閱 Copilot 流程
這些功能遵循相同的一般程式:
Copilot
從使用者收到提示
。 此提示可能以使用者輸入聊天窗格中的問題的形式呈現,或者以動作形式呈現,例如選取標示「建立報表」的按鈕。
Copilot透過
稱為「基礎設定」的方法
,預先處理提示。 視案例而定,這可能包括從使用者的目前會話 Copilot擷取相關數據,例如數據集架構或聊天記錄。 具體化可以改善提示的特定性,讓使用者取得與其特定工作相關且可行的回應。 數據擷取的範圍取決於已驗證用戶根據其許可權存取的數據。 如需詳細資訊,請參閱本文中
如何使用哪些數據 Copilot 及其處理方式一
節。
Copilot 會接受來自 Azure OpenAI 的回應,並進行後處理。 視案例而定,此後處理可能包含負責任的 AI 檢查、使用 Azure 內容仲裁進行篩選,或其他商務特定限制。
Copilot會以自然語言、程序代碼或其他內容的形式傳
回用戶的回應
。 例如,回應的格式可能是聊天訊息或生成的程式碼,或者可能是內容適當的形式,例如 Power BI 報表或 Synapse 筆記本儲存格。
使用者先檢閱回應,再使用它
。
Copilot 的回應可能包含不正確或低品質的內容,因此在使用或共享前,主題專家務必檢查這些輸出。
就像 Fabric 中的每個體驗都是針對特定案例和角色而建置的,從數據工程師到數據分析師, Copilot Fabric 中的每個功能也都是以獨特的案例和使用者為心所建置。 針對每個功能的功能、預定用途和限制,請檢閱您正在使用體驗的區段。
使用者所提交的 Copilot 文字或動作。 這可能是使用者輸入聊天窗格的問題形式,或以動作的形式,例如選取顯示「建立報表」的按鈕。
前置處理技術,可 Copilot 擷取與使用者提示內容相關的其他數據,然後將該數據連同使用者的提示傳送至 Azure OpenAI,以產生更相關且可採取動作的回應。
回應或輸出
Copilot 傳回給用戶的內容。 例如,回應的格式可能是聊天訊息或產生的程序代碼,或者可能是內容相關的適當內容,例如 Power BI 報表或 Synapse 筆記本數據格。
Copilot 使用哪些數據,以及這些數據的處理方式是什麼?
若要產生回應, Copilot 請使用:
使用者的提示或輸入,並在適當時使用
透過基礎過程檢索的其他數據。
這項資訊會傳送至 Azure OpenAI 服務,並在其中進行處理併產生輸出。 因此,Azure OpenAI 所處理的數據可能包括:
使用者的提示或輸入。
地面數據。
人工智慧的回應或輸出。
基礎數據可能包含數據集架構、特定數據點,以及與使用者目前工作相關的其他信息的組合。 查看每個體驗區段,以了解在該情境中 Copilot 功能可以存取哪些資料的詳細資訊。
與 Copilot 的互動是每個使用者特有的。 這表示 Copilot 只能存取目前使用者有權存取的數據,而且只有該使用者才能看到其輸出,除非該使用者與其他人共享輸出,例如共用產生的 Power BI 報表或產生的程式代碼。
Copilot 不會使用相同租戶或其他租戶中其他用戶的數據。
Copilot 會使用 Azure OpenAI,而非 OpenAI 的公開可用服務來處理所有數據,包括使用者輸入、地面數據和 Copilot 輸出。
Copilot 目前使用多種 GPT 模型的組合,包括 GPT 3.5。 Microsoft在Microsoft的 Azure 環境中裝載 OpenAI 模型,而服務不會與 OpenAI 的任何服務互動(例如 ChatGPT 或 OpenAI API)。 您的數據不會用來定型模型,而且無法提供給其他客戶使用。 深入了解
Azure OpenAI
。
濫用對提示的監視
Copilot Fabric 中的 AI 體驗目前
未被納入
任何針對您的提示的自動濫用監控系統。 這表示我們目前不會處理任何客戶提示來監視濫用內容。 這也表示針對此目的不會保留任何提示。
數據落地與合規性
您可以保留資料的處理位置控制權。
除非您明確允許在您的地理區域外處理資料,否則由 Fabric 中 Copilot 處理的資料會保留在您的租用戶地理區域內。例如,當 Azure OpenAI 在您所在的區域無法使用或因高需求而供應有限時,您可以允許使用者使用 Copilot。 (請參閱
Azure OpenAI 目前可用的位置。
若要允許在其他地方處理數據,您的系統管理員可以開啟
傳送至 Azure OpenAI 的數據設定,可以在租使用者的地理區域、合規性界限或國家雲端實例之外進行處理
。 深入瞭解
Copilot的系統管理員設定
。
要如何負責任地使用 Copilot?
Microsoft 致力於確保 AI 系統在
AI 準則
和
負責任 AI 標準
引導下運作。 這些原則包括讓客戶能夠有效地使用這些系統,並符合其預定用途。 我們實作負責任 AI 的方法不斷演進,以主動解決新產生的問題。
網狀架構中的 Copilot 功能是專為符合負責任 AI 標準而建置的,這表示由多方面的小組檢閱它們是否有潛在危害,然後經過細化以包含這些傷害的風險降低。
在使用 Copilot 之前,請記住 Copilot 的限制:
Copilot 回應可能包含不正確或品質不佳的內容,因此請務必先檢閱輸出,再在工作中使用。
能夠有意義地評估內容正確性和適當性的人員,應審查這些輸出。
目前, Copilot 功能在英文中效果最佳。 其他語言的表現可能不如預期。
Copilot 用於 Fabric 工作負載
隱私權、安全性和負責任用途:
Copilot for Data Factory (預覽)
Copilot 資料科學(預覽)
Copilot 資料倉儲中的網狀架構 (預覽)
Copilot SQL 資料庫中的 Fabric(預覽)
Copilot 適用於Power BI
Copilot Real-Time Intelligence(預覽)
Microsoft Fabric 是什麼?
網狀架構和 Power BI 中的
Copilot:常見問題