淺談模型上下文協定 MCP 應用開發

這是我在 2025/5/23 的 生成式 AI 開發者年會 中,分享的 MCP 演講投影片 ➡️ 這裡下載 PDF(17mb)

錯過現場也沒關係,GenAI 年會提供線上回放票,可在這裡購買 👉 pse.is/7jrlk8

🗓 議程簡介:

了解 MCP 如何讓開發者能夠以標準化方式銜接LLM與外部工具
掌握MCP的核心概念與實作方法,並發掘如何將這項技術融入自己的AI專案中

  • Why MCP? 什麼是 MCP?
  • MCP server
  • MCP client
  • Remote MCP server 的發展
  • Sampling 和 Agents as Tools 多代理人架構
  • MCP 的 Roadmap

🛠 以下工商:

愛好 AI Engineer 電子報 🚀 紐約 AI Engineer Summit 特輯 #26

歡迎訂閱 📬 愛好 AI Engineer 電子報 過往期數點這 📚

想系統性學習如何打造 LLM、RAG 和 Agents 應用嗎? 歡迎報名我的課程 大語言模型 LLM 應用開發工作坊

Hello! 各位 AI 開發者大家好 👋

我是 ihower,這一期電子報跟大家分享二月底在紐約舉辦的 AI Engineer Summit。這大會的定位就是針對 AI 軟體工程師,今年的大主題就是最夯的 Agents 工程。

主辦單位已經釋出全部錄影在 Youtube 上了,總共有六十多場演講我都消化了,以下精選了我最有收穫的 16 場分享給大家。

因為全放內容會太多,以下只有我簡單的介紹。有興趣的可以點下去看我用 AI 整理後的中等長度摘要。如果覺得不夠,Facebook 留言中裡面有放完整版逐字稿跟截圖的連結,網頁我也有放一鍵 Copy 全部逐字稿,方便讓你貼去 AI 自己問。

1. Anthropic 講 Agents: Anthropic for VPs of AI

這場介紹了 Anthropic 和 Intercom 案例,以及分享了 AI 應用開發的最佳實踐與常見錯誤。

2. OpenAI 講 Agents: OpenAI for VP’s of AI + Advice for Building Agents

OpenAI 如何做企業導入,Agent 的定義和四個關鍵建議。

3. 開發 Agents 的三種挑戰: Why people think “agent” is a buzzword but it isn’t

談開發 Agent 要面臨的挑戰,以及建議的解決方式。包括以下三種挑戰:

  1. Agent 隨著任務複雜度增加,失敗率也會增加: 當前 Agent 很少能可靠解決超過 5 步的任務,大多數模型最多可解決 5 步任務,10 步後基本都失敗
  2. 工具使用的挑戰,需要處理自然語言到 API 的轉換: 自然語言的歧義、糟糕的 API 說明文件
  3. 上下文管理問題: planning 能力好的模型與 long-context 處理能力好的模型往往不同: 規劃是輸出密集型、長上下文是輸入密集型
閱讀全文〈愛好 AI Engineer 電子報 🚀 紐約 AI Engineer Summit 特輯 #26〉

愛好 AI Engineer 電子報 🚀 都急了,我的 LLM 應用開發工作坊開課了 #25

Hello! 各位 AI 開發者大家好 👋

我是 ihower,最近的熱門話題是在同一天內相隔幾小時發表 ChatGPT 4o image 生圖功能,以及新的SOTA王者 Gemini 2.5 Pro 模型,大家都有嘗試了嗎?

🔝 大語言模型 LLM 應用開發工作坊 (2025升級版)

我的 LLM 課程開放報名啦,距離上次公開課應該也快一年了,這段期間忙著做案子和企業內訓。但太多人在敲碗期待課程更新,這次終於排出時間來開一波。如果錯過這次,可能就要等到年底才有機會再開囉 。

課名: 大語言模型 LLM 應用開發工作坊 (2025升級版),這是針對軟體工程師的 OpenAI API、Chatbot、Prompt Engineering、RAG、Agents 的開發課程

適合對象: 有經驗的軟體工程師。非資訊專業或看不懂程式碼的話,不建議報名此課程,你一定跟不上進度。這門課就是乾貨滿滿、節奏紮實,適合有程式基礎的工程師。

課程日期: 分三次上課 2025/4/26 (六)、2025/5/3 (六)、2025/5/10 (六) PM7~PM10 (視進度和 QA 情況,可能彈性延長至 PM 10:30)

上課地點: 線上 Zoom 直播

舊生可享半價優惠。

🧠 VisTW 繁體中文的視覺評測

非常難得可以看到專為繁體中文做的視覺語言模型設計的評測資料集,這個 VisTW 包含兩個子集:

  • MCQ: 來自21個學術科目的多選題集合
  • 對話: 真實生活圖像與相應問題,需要理解繁體中文和台灣特定文化背景

這是 benchmarkpaper,歡迎關注 第一作者 zraytam

閱讀全文〈愛好 AI Engineer 電子報 🚀 都急了,我的 LLM 應用開發工作坊開課了 #25〉

大語言模型 LLM 應用開發工作坊 (2025升級版)

我的 LLM 課程開放報名啦,距離上次公開課應該也快一年了,這段期間忙著做案子和企業內訓。但太多人在敲碗期待課程更新,這次終於排出時間來開一波。如果錯過這次,可能就要等到年底才有機會再開囉 。

📣 課名: 大語言模型 LLM 應用開發工作坊 (2025升級版)

這是針對軟體工程師的 OpenAI API、Chatbot、Prompt Engineering、RAG、Agents 的開發課程

👩‍💻 適合對象:

有經驗的軟體工程師。非資訊專業或看不懂程式碼的話,不建議報名此課程,你一定跟不上進度。這門課就是乾貨滿滿、節奏紮實,適合有程式基礎的工程師。

📅 課程日期:

分三次上課 2025/4/26 (六)、2025/5/3 (六)、2025/5/10 (六)
PM7~PM10 (視進度和 QA 情況,可能彈性延長至 PM 10:30)

📍 上課地點: 線上 Zoom 直播

課程網頁和報名 👉👉 aihao.tw/llm

愛好 AI Engineer 電子報 🚀 恩尼格瑪評估 #24

Hello! 各位 AI 開發者大家好 👋

我是 ihower,近期也是新模型齊發,包括 Authropic 首個推理模型 Sonnet 3.7、Elon Musk 的 Grok 3、OpenAI 釋出可能是參數量最大又最昂貴的 GPT-4.5,連 GPT-5 路線 都預告了。

🔝 AI 大神免費教你生活用 AI,入門實例解析互動技巧、工具使用、檔案處理,帶你快速掌握LLM應用!

大神 Andrej Karpathy (前 OpenAI 共同創辦人、特斯拉人工智慧總監) 又錄了一個免費又親切的兩小時入門影片,分享他如何使用 ChatGPT,包括推理模型介紹、各種搭配的工具介紹、多模態模型介紹等等。

影片適合一般初學者特別是 AI 小白,這裡感恩 Fox 大大翻譯繁體中文字幕。

🧠 恩尼格瑪評估 EnigmaEval

人類的最後考試之後,Scale AI 又發了一個超猛的 EnigmaEval 恩尼格瑪評估 🧩 (命名想來出自二戰時的恩尼格瑪密碼機)

這是一個來自全球謎題作家和遊戲大師的原創複雜問題,解謎需要創造性的問題解決能力,以及在數學、邏輯推理、文化知識、語言操作等多個領域中綜合資訊的能力。

共有 1184 個多模態謎題非常艱難,一群人需要花上幾個小時甚至幾天的時間才能解答。

目前所有頂級模型在 Hard set 上的得分為 0%,在 Normal set 上的得分小於 10%。總分最高分是 o1 的 5.65%,然後是 Gemini 2.0 Flash Thinking 1.1%,其他模型都在 1% 以下了….
大家會想知道的 DeepSeek R1 跟 OpenAI o3-mini 因為不支援多模態,不會看圖片,所以就沒辦法參加這個 benchmark 了。

更多討論在我 Facebook 貼文。

閱讀全文〈愛好 AI Engineer 電子報 🚀 恩尼格瑪評估 #24〉

愛好 AI Engineer 電子報 🚀 就是有深度 DeepSeek R1 和 OpenAI Deep Research #23

Hello! 各位 AI 開發者大家好 👋

我是 ihower,這次過年好忙,又是 DeepSeek R1 又是 OpenAI o3-mini,真是春捲啊 🌯🌯🌯

🔝 AI 大神免費深入淺出全面講解大型語言模型、訓練、心理學到實際應用

cover

大神 Andrej Karpathy (前 OpenAI 共同創辦人、特斯拉人工智慧總監) 寫的這個 LLM 模型訓練的比喻(出處 tweet)太讚了,這裡翻譯分享給大家:

讓大型語言模型 (LLMs) 去上學:

當你打開任何一本教科書時,你會看到三種類型的主要內容:

  1. 背景資訊/解說: 這部分是教科書的主要內容,用來解釋各種概念。當你專注閱讀時,大腦正在把這些內容進行學習與訓練。這就相當於「預訓練」(pretraining),模型透過閱讀網路資料,累積背景知識。
  2. 有解答過程的範例題: 這些是專家如何解題的具體案例,示範給學生來模仿學習。對模型來說,這就相當於「監督式微調」(supervised finetuning,縮寫是 SFT),也就是讓模型根據人類撰寫的「理想回覆」來做微調,來提升作為 AI 助理的表現。
  3. 練習題: 這些是給學生的練習題目,通常不會提供解題過程,但都會附上最終答案。每章最後通常會有大量這種題目,目的在於讓學生透過反覆嘗試來學習 – 學生必須嘗試各種方法才能得到正確答案。對模型而言,這相當於「強化學習」(reinforcement learning,縮寫是 RL)

目前我們已經讓模型接受大量的第 1 類(背景知識) 和第 2 類(範例學習)訓練,但第 3 類(練習與試誤學習) 仍然是個新興逐漸開展的新領域。
當我們為模型建立訓練資料集時,本質上與撰寫教科書並無不同,需要同時包含這三種類型的資料。它們必須先閱讀,然後再做大量練習。

大神還接著錄了三個多小時的教學影片,免費深入淺出全面講解大型語言模型、訓練、心理學到實際應用!
這裡感恩 Fox 大大翻譯繁體中文字幕。

閱讀全文〈愛好 AI Engineer 電子報 🚀 就是有深度 DeepSeek R1 和 OpenAI Deep Research #23〉