什麼是MCP(Model Context Porta)?它能為我們做什麼?
Model 模型:為大型語言模型 LLM(Large Language Model),也就是大家所熟知的 AI 技術的運用,例如 ChatGPT 模型、Claude 模型
Context 上下文:也就是提供給模型的額外資料
Protocol 協定:也就是一個通用的標準
而把這三個字混在一起的話,MCP 就是指讓模型能夠輕易對接到外部資料的一種協定,是 AI Agent(AI 助理)技術發展的重要突破,讓 AI 能夠輕鬆對接外部資料與工具。這不僅僅是簡單的資料交換,而是讓 AI 具備了「操作」外部世界的能力。不過為什麼要讓模型對接到外部資料呢?
為什麼我們需要 MCP?介紹 MCP 的誕生背景。
傳統的 AI 助理(像 ChatGPT 或 Claude)固然強大,但它們面臨著諸多的限制:
- 知識的限制:傳統的 AI 只知道其訓練數據中包含的信息,而訓練大型語言模型需要龐大的計算資源和時間,通常需要六個月或更長時間才能完成一個新版本,這就導致模型的知識總是過時的。
- 缺乏專業領域知識:LLM 是使用公開可用的一般數據訓練的,並不能深入理解特定業務場景中的專業數據和信息。
- 沒有統一的訪問外部數據的標準:在 MCP出現之前,若程序開發人員想要讓 AI 呼叫外部的某項數據,需要透過開法者自己定義相對應的函式。這種方式雖然靈活度高,但是當不同開發者定義的函式不同,就會遇到無法通用的問題。
這就是為什麼我們需要 MCP。MCP 提供了一個標準化的協議,允許 AI 模型以一致的方式訪問外部信息和工具,解決了上述所有問題。事實上,在 Anthropic 最開始把 MCP 開源時,就有提到希望讓 MCP 成為如同 USB-C 一樣的存在。讓每一個裝置都能夠透過 USB-C 來連接,不會因為換了裝置後就不能繼續用同樣的接頭。
遇到的問題 | 傳統 AI | MCP |
---|---|---|
知識限制 | 回答都是基於過時的資訊,或者是莫名其妙的想像 | 能夠及時訪問外部的數據,獲取最新的資訊 |
專業領域知識 | 透過公開可用的數據訓練,無法深入了解特定領域的專業訊息 | 能夠透過訪問的方式針對需要的領域獲取相對應的專業知識 |
統一標準 | 各個開法者定義函式不同,導致無法溝通。 | 有了統一的標準可以靈活的切換不同的 AI 工具 |
MCP 是如何運作的?淺談 MCP 的工作原理。
要知道 MCP 是如何運作的,首先得了解他的架構。MCP 的架構包含這幾個核心部分:
1. MCP Host(主機):
像是一個指揮中心,負責管理 MCP Client 與 Server 的連線。若用筆電來比喻的話,Host 就是屬於筆電本身。
2. MCP Client(用戶端):
負責 AI 和 MCP Server 之間的溝通,包括傳送 AI 指令到 MCP Server 內,以及接收 MCP Server 回傳的訊息。就好比是筆電與各個插頭之間的轉接頭。
3. MCP Server(伺服端):
負責管理本地資料庫要輸出的內容指令,讓Client可以自選指令來運作。MCP伺服器就像滑鼠、鍵盤、硬碟等各種USB設備,都需要透過轉接頭連接到筆電。
舉例來說,使用者向 ChatGPT 提出”幫我整理銷售報表”的請求時,AI 分析請求後,發現需要存取 Excel 的權限,便會透過客戶端發送請求到 MCP 伺服端,請求使用「Excel 編輯」的功能。過程中 ChatGPT 都是統一透過 MCP 來取得數據,而非對接什麼額外的 API。
MCP 引領 AI 跨越新時代,開啟無限可能
MCP 無疑是人工智能領域的一項重要創新,將成為未來 AI 技術發展的關鍵橋樑。透過這一標準化協定,AI 不僅能克服知識更新的瓶頸,還能在多領域中靈活地獲取並操作外部數據,極大提升其在專業領域的應用潛力。隨著 MCP 的普及與發展,未來的 AI 將更能以一致且高效的方式連接世界,從而推動更智能的技術應用。因此, MCP 的問世,不僅解決了許多現有 AI 系統的痛點,也為未來 AI 在各行各業的應用打開了更為廣闊的天地。