本文中的資訊僅適用於
Microsoft 365 Copilot 搶先體驗計劃
,這是商業客戶僅限邀請的付費預覽計畫。 詳細資料可能會變更。
Microsoft 365 Copilot
是複雜的處理和協調流程引擎,可藉由協調下列元件來提供 AI 支援的生產力功能:
大型程式設計語言模型 (LLM)
您在 Microsoft Graph 中的內容,例如您的電子郵件、聊天和文件,以及您所定義的安全性和權限。
您每天使用的 Microsoft 365 應用程式,例如 Word 和 PowerPoint。
如需這三個元件如何搭配運作的概觀,請觀看下列影片:
Copilot 系統: 由 Microsoft 說明
Microsoft 365 Copilot 的運作方式
Microsoft 365 Copilot 會隨著時間推出新功能而持續演進。 如此一來,我們會繼續為您提供組織成功所需的更新資訊,並且獲得 Microsoft 365 Copilot 的最大效益。 若要隨時掌握 Microsoft 365 Copilot 或提出問題,請造訪
Microsoft 技術社群上的 Microsoft 365 Copilot 社群
。
從一開始,下列 Microsoft 365 Copilot 原則就是我們對客戶的承諾基礎。
以 Microsoft 的安全性、合規性和隱私權的完整方法建置。
Copilot 建置在 Microsoft 365 之上並與之整合。 此整合可讓您利用您已在組織中部署的現有 Microsoft 安全性、合規性與隱私權解決方案,以及其他可協助您針對貴組織設定適當 Copilot 使用方式的控制項。
架構來保護租用戶、群組和個人資料。
我們知道客戶的主要考慮是持續控制組織內商務資料的存取權。 在您的租用戶中,我們會提供權限模型,以協助確保正確的群組和使用者只能存取其應該有權存取的資料。
致力於負責任的 AI。
Microsoft 致力於確保 AI 系統是以負責任的方式開發,並以保證人員信任的方式來開發。 這項工作是由
一組核心原則
所指導: 公平性、可靠性和安全、隱私權和安全性、包容性、透明度和責任。
Microsoft 365 Copilot 如何運作?
Microsoft 365 Copilot 使用者在 Microsoft 365 應用程式和其他介面中看到的功能會顯示為智慧型功能、功能和提示功能。 在此之下,我們的基礎模型和專屬的 Microsoft 技術會在基礎系統中共同運作,以協助您安全地存取、使用及管理您的商務資料。
Microsoft 365 應用程式
(例如,Word、Excel、PowerPoint、Outlook、Teams、Loop) 與 Copilot 一起運作,以支援使用者的工作內容。 例如,Word 中的 Copilot 是專為協助使用者建立、編譯和編輯文件的流程而設計。 同樣地,其他應用程式中的 Copilot 可協助使用者在這些應用程式內處理其工作內容。
[聊天]
可讓 Copilot 使用者使用跨應用程式智慧,這可讓使用者以更簡單的方式使用多個應用程式。 使用者透過聊天存取跨應用程式智慧的方式,與使用開放提示與 ChatGPT 或 Bing 聊天互動的方式相同。 這些提示會在 LLM 中存取核心訓練資料,以及使用者的商務資料和應用程式,以顯示其組織資料所需的資訊和深入解析。 提示會在各種體驗中使用 Copilot,包括 Teams (聊天)、Bing、Microsoft Edge 和 Microsoft 365 應用程式。
Microsoft Graph
一直都是 Microsoft 365 的基礎。 其中包含使用者、活動和貴組織資料之間關聯性的相關資訊,與 Copilot 語意索引搭配使用,以及使用搜尋協調資訊擷取步驟。 Microsoft Graph API 會將來自客戶訊號的其他內容帶入提示,例如來自電子郵件、聊天、文件和會議的資訊。 如需詳細資訊,請參閱
Microsoft Graph 概觀
和
Microsoft Graph 中的主要服務和功能
。
Copilot 的
語意索引
,使用位於 Microsoft Graph 頂端的多個 LLM 來解譯使用者查詢,並產生複雜、有意義且多語言的回應,協助您提高生產力。 它可讓您快速搜尋數十億個向量 (特徵或屬性的數學標記法),讓您與組織中最相關且可採取動作的資訊連線。 如需詳細資訊,
請檢閱這段影片
。
這些元素全都以 Copilot 系統、常見的基礎 AI 堆疊連線在一起,包括基礎 LLM、AI 平台、技能存放庫,以及支援 Bing 聊天使用者體驗的執行時間、Microsoft 365 應用程式中的 Copilot,以及跨應用程式智慧。
下圖提供 Microsoft 365 Copilot 運作方式的視覺化呈現。
以下是 Microsoft 365 Copilot 運作方式的其他說明:
Copilot 會收到來自應用程式 (例如 Word 或 PowerPoint) 中使用者的輸入提示。
Copilot 接著會透過稱為「接地」的方法預先處理提示,以改善提示的特定性,確保您取得與特定工作相關且可採取動作的答案。 其部分是藉由呼叫 Microsoft Graph 並存取貴組織的資料來執行此動作。 Copilot 針對已驗證使用者所使用的資料,範圍會限定在已透過現有 Microsoft 365 角色型存取控制顯示的文件和資料。
這項資訊擷取稱為擷取擴增的產生。 它可讓 Copilot 提供正確類型的資訊作為 LLM 的輸入,將此使用者資料與其他輸入結合,例如從知識庫文章擷取的資訊,以改善提示。 Copilot 會從 LLM 取得回應並進行後續處理。 此後續處理包括對 Microsoft Graph 追加的接地呼叫、負責任的 AI 檢查、安全性、合規性和隱私權檢閱,以及命令產生。
Copilot 會將建議的回應傳回給使用者,並將命令傳回給應用程式,讓使用者可以檢閱和評估建議的回應。 Copilot 會反復處理和協調這些複雜的服務,以產生與您的商務相關的結果,因為它在內容上是以您組織的資料為基礎。
Copilot 如何使用您的專屬商務資料?
Copilot 藉由將 LLM 連線到客戶商務資料來開啟商務價值,這些資料是以安全性、合規性和隱私權為考慮而設計。
Copilot 會透過 Microsoft Graph 存取內容和背景。 它可產生的回應錨定在客戶商務內容中,例如使用者文件、電子郵件、行事曆、聊天、會議、連絡人和其他商務資料。 Copilot 會將此內容與使用者的工作內容結合,例如使用者正在參加的會議、使用者按主題進行的電子郵件往來,或使用者上週的聊天交談。 Copilot 會使用此內容和背景的組合,協助提供正確、有關聯性、背景相關的回應。
客戶資料 (包括提示、回應和透過 Microsoft Graph 存取的資料) 不會用來訓練 Copilot 所使用的基礎 LLM。
Copilot 只會顯示個別使用者至少具有檢視權限的組織資料。 請務必使用 Microsoft 365 服務中可用的權限模型,例如 SharePoint,以確保正確的使用者或群組能夠正確存取貴組織內的正確內容。
只會顯示目前使用者的租用戶 Microsoft 365 給目前使用者的雲端內容。 Copilot 不會搜尋使用者可能也是 B2B 來賓的其他租用戶,或已設定跨租用戶存取或跨租用戶同步處理的非目前使用者的租用戶。
當您使用 Copilot 輸入提示時,提示中包含的資訊、它們所擷取的資料,以及產生的回應都會保留在 Microsoft 365 合規性界限內,以符合我們目前的資料安全性和合規性承諾。
每個標準租用戶都有自己的 Copilot 協調器實例,其依賴
Microsoft 搜尋
來整理資訊。 個別協調器實例可協助確保資料不會離開組織的合規性界限。
模型的唯一輸入是提示。 不過,提示也可以包括使用者選取要輸入 LLM 的輸入檔案或內容,其透過租用戶的 Copilot 協調器實例探索並向使用者呈現。
我們可以使用選擇性的客戶意見反應來改善 Copilot,就像我們使用客戶意見反應來改善其他 Microsoft 365 服務和 Microsoft 365 應用程式一樣。 我們不會使用此意見反應來訓練 Copilot 所使用的基礎模型。 客戶可以透過系統管理員控制來管理意見反應。 如需詳細資訊,請參閱
管理貴組織的 Microsoft 意見反應
。
雖然 Copilot 已經能夠在 Microsoft 365 生態系統中使用應用程式和資料,但許多使用者仍然依賴各種外部工具和服務來進行工作管理和共同作業。 客戶可以藉由擴充 Copilot 來解決此差距,讓使用者能夠使用其第三方工具和服務,以發揮 Microsoft 365 Copilot 的完整潛力。 這可以透過建置外掛程式,或連線到外部資料來源以擴充Microsoft 365 Copilot 來完成。 如需詳細資訊,請參閱
Microsoft Graph 連接器概觀
。
關於 Copilot 建立的內容
生成式 AI 產生的回應不保證是 100% 事實。 雖然我們持續改善回應,但人們仍應在檢閱輸出時運用判斷力,再將輸出的結果傳送給其他人。 我們的 Copilot 功能提供實用的草稿和摘要,可協助您達成更多目標,同時讓您有機會檢閱產生的 AI,而不是將這些工作完全自動化。
我們會繼續改善演算法以主動解決問題,例如資訊錯誤和虛假訊息、內容封鎖、資料安全,以及防止根據我們的
負責任的 AI 原則
推廣有害或歧視性的內容。
Microsoft 不會宣告 Copilot 功能所建立內容的所有權。 生成式 AI 系統可能會對多個使用者或客戶的類似提示或查詢產生類似的回應。 由於著作權和其他與所有權相關的法律會因管轄權而異,因此 Microsoft 不會對 Copilot 功能所建立的內容是否受到著作權保護做任何判斷。
Microsoft 365 租用戶內的權限模型可協助確保資料不會在使用者、群組和租用戶之間意外洩漏。 Microsoft 365 Copilot 只呈現每個人可以使用在其他 Microsoft 365 服務中所使用的資料存取之相同基礎控制項存取資料。 語意索引會接受使用者身分識別型的存取界限,因此接地流程只會存取目前使用者有權存取的內容。 如需詳細資訊,請參閱 Microsoft 的
隱私權原則和服務文件
。
使用 Microsoft Purview 資訊保護 (MPIP 或 AIP) 標籤保護的資料將繼續根據這些原則受到保護。 雖然 Copilot 產生的內容目前不會從來源繼承 MPIP 標籤,但 Copilot 會引用原始來源,這將會保留標籤。
我們已實作多種保護形式,以協助防止客戶入侵 Microsoft 365 服務和應用程式,或取得其他租用戶或 Microsoft 365 系統本身的未經授權存取權。 以下是這些保護形式的一些範例。
Microsoft 365 服務的每個租用戶內的客戶內容邏輯隔離,是透過 Azure Active Directory 授權和角色型存取控制而達成。 如需詳細資訊,請參閱
Microsoft 365 隔離控制
。
Microsoft 使用嚴格的實體安全性、背景篩檢和多層式加密策略來保護客戶內容的機密性和完整性。
Microsoft 365 使用服務端技術來加密待用和傳輸中的客戶內容,包括 BitLocker、個別檔案加密、傳輸層安全性 (TLS) 和網際網路通訊協定安全性 (IPsec)。 如需 Microsoft 365 中加密的特定詳細資料,請參閱
Microsoft Cloud 中的加密
。
Microsoft 承諾遵守廣泛適用的隱私權法律,例如 GDPR 和隱私權標準,例如 ISO/IEC 27018,這是全球第一個雲端隱私權國際行為守則,藉此強化您對資料的控制。
對於透過 Copilot 外掛程式存取的內容,加密可以排除程式設計存取,進而限制外掛程式存取內容。 如需詳細資訊,請參閱
設定 Azure 資訊保護的使用權限
。
資料落地和主權
Microsoft 365 Copilot 對 LLM 的呼叫會路由傳送至區域中最接近的資料中心,但也可以呼叫在高使用率期間可提供容量的其他區域。 LLM 呼叫會處理記憶體中的客戶資料,並將回應和其他客戶內容成品傳回至首頁區域。 使用者的首頁區域外不會寫入任何客戶內容資料。 對於歐盟使用者,我們有額外的保護措施以遵守
歐盟資料界限
。 歐盟流量會保持在歐盟資料邊界內,而全球流量則可傳送至歐盟和其他地理位置以進行 LLM 處理。
符合法規合規性要求的會議需求
隨著 AI 領域中的法規演進,Microsoft 會繼續調整和回應,以滿足未來的法規需求。
Microsoft 365 Copilot 是依據 Microsoft 目前對於企業資料安全性和隱私權的承諾而建構。 這些承諾沒有任何變更。 Microsoft 365 Copilot 已整合到 Microsoft 365 中,並遵守所有現有的隱私權和合規性義務。 如需詳細資訊,請參閱
Microsoft 合規性
。
目前,Microsoft 365 Copilot 根據「早期存取計畫」的條款運作。 當 Microsoft 365 Copilot 正式發行時,它會根據
Microsoft 365 產品條款及條件
運作。
除了遵守法規之外,我們也將與客戶、合作夥伴和監管機關的開放對話排定為優先次序,以進一步瞭解並解決疑慮,進而促進信任與合作的環境。 我們確認隱私權、安全性和透明度不只是功能,也是 AI 驅動環境的必要條件。
關於 Microsoft 365 Copilot 的其他詳細資料
Microsoft 365 Copilot 使用 Azure OpenAI 服務進行處理,而不是 OpenAI 的公開線上服務。
Microsoft 365 Copilot 使用生成式預先訓練轉換器 (GPT) 模型的組合,包括 GPT 4。 GPT 是大型語言模型 (LLM) 的範例。
Microsoft 365 Apps 提供的
連線體驗隱私權控制
不適用於 Microsoft 365 Copilot。
如需 Microsoft 365 Copilot 與 ChatGPT 之間差異的相關資訊,請參閱
ChatGPT 與 Microsoft 365 Copilot: 差異為何?
。
致力於負責任的 AI
由於 AI 已準備改變我們的生活,因此我們必須針對這項技術的使用和影響,共同定義新的規則、規範和做法。 自 2017 年起,Microsoft 一直走在負責任的 AI 旅程中,我們定義了原則和方法,以確保是由以人為優先的道德原則為導向來使用這項技術。
在 Microsoft,我們受到我們的
AI 原則
、
負責任的 AI 標準
,以及數十年來在 AI、接地和隱私權保護機器學習的研究所指引。 由研究人員、工程師和原則專家組成的多領域小組檢閱我們的 AI 系統中的潛在損害和風險降低措施: 精簡訓練資料、篩選以限制有害內容、封鎖敏感性主題的查詢和結果,以及應用 Microsoft 技術,例如
InterpretML
和
Fairlearn
,以協助偵測和修正資料偏差。 我們藉由記錄限制、連結來源,以及提示使用者根據主題專業知識檢閱、事實查核及調整內容,來說明系統做決定的方式。 如需詳細資訊,請參閱
控管 AI: 未來的藍圖
。
我們的目標是協助客戶負責任地使用我們的 AI 產品、分享我們的學習,以及建立以信任為基礎的合作關係。 針對這些新服務,我們想要為客戶提供 AI 平台服務預定用途、功能和限制的相關資訊,讓他們具備做出負責任部署選擇所需的知識。 我們也會與企業內部的開發人員和 ISV 共用資源和範本,以協助他們建置有效、安全且透明的 AI 解決方案。
準備您的組織以進行Microsoft 365 Copilot
若要在 Microsoft 365 中存取和使用 Copilot,您必須符合某些必要條件。 例如,您必須有 Microsoft E3/E5 訂用帳戶方案,並使用 Azure Active Directory 型帳戶。 在特定應用程式中使用 Copilot 也有一些要求,例如擁有新的 Windows 版 Outlook。 如需詳細資訊,請參閱
如何為 Microsoft 365 Copilot 作準備
以及
開始在 Microsoft 365 中使用 Copilot
。
除了基本必要條件和產品特定需求之外,還有一些方法可讓您立即為組織做好準備,以便您在 Microsoft 365 中部署 Copilot 時,能獲得其功能的最大效益。 例如,請確定您的組織已具備正確的資訊存取控制和原則。 請記住,Copilot 只會擷取使用者明確可存取的資訊,例如儲存在 SharePoint 中的檔案。 如需詳細資訊,
請觀賞這段影片
。
使用 AI 的其他 Microsoft 產品
下列連結提供一些使用 AI 的其他 Microsoft 產品的相關資訊。
Microsoft Designer
Azure AI
Microsoft Dynamics 365 Copilot
Microsoft 安全性 Copilot
GitHub Copilot
Power Platform 中的 Copilot