Spec-Driven Development(SDD) 的美好願景與殘酷現實

(整理分享一些關於 Spec-Driven Development (SDD) 的看法和內容)

Spec-Driven Development (SDD) 是什麼? 簡單說講就是在用 AI 寫程式之前,先讓 LLM 生成一大堆規格文件: 產品需求 → 技術設計 → 任務清單,然後才交給 coding agent 執行。目前有幾個工具在推這套流程: GitHub 的 Spec-Kit、AWS 的 Kiro、還有 Tessl。

社群討論其實非常兩極。正面看法認為遠比 vibe coding 可靠、適合要上線維護的真實專案、開發速度中期來看其實更快。負面看法則認為這就是 Waterfall 2.0、過度工程化、扼殺創造力。

閱讀全文〈Spec-Driven Development(SDD) 的美好願景與殘酷現實〉

愛好 AI Engineer 電子報 🚀 AI Evals 大辯論和 MCP Registry 發布 #32

歡迎訂閱 📬 愛好 AI Engineer 電子報 過往期數點這 📚

Hello! 各位 AI 開發者大家好 👋

變成月刊了,這期內容繼續深入探討 AI 工程的核心: 評估、Context Engineering、Agent 和 RAG。

閱讀全文〈愛好 AI Engineer 電子報 🚀 AI Evals 大辯論和 MCP Registry 發布 #32〉

AI Evals 大辯論: 從 Claude Code 訪談引發的反思

最近看到一場關於 AI Evals 的精彩論戰,爭論焦點不在模型訓練層面的評估(這個大家都有共識要做),而是 AI 應用層面到底要做多少評估。這讓我想起自己在軟體開發的經驗: 如何寫測試也是我曾關注的問題,但說實話,我從來不追求 100% test coverage。即使 Ruby 社群也強調每件事都要有測試涵蓋,但我還是比較考量成本效益,自動化測試對我來說是值得做才會做的事。

現在 AI Evals 也處於類似階段。我去年就開始關注並分享如何做評估,但要求每個面向都 100% 有評估其實是不實際的。AI 是機率性軟體,評估難度更高,AI 的輸出好不好也非常有主觀成分,目前怎麼做很依賴實務經驗交流。最近剛上完 AI Evals For Engineers & PMs 課程,有了新的體會。首先,「評估驅動開發」(指先寫評估再開發) 竟然可能是錯的方向 – 對於沒有標準輸出的 AI 任務,你無法無限投資在評估上。

閱讀全文〈AI Evals 大辯論: 從 Claude Code 訪談引發的反思〉

愛好 AI Engineer 電子報 🚀 OpenAI GPT-5 推出 #31

Hello! 各位 AI 開發者大家好 👋

我是 ihower,這期不小心變成月刊了,暑假真是過太快了。

幫分享今年的 PyCon Taiwan 在臺北文創,總共有 3 種形式的演講與 6 種不同性質的交流活動。
時間是 2025/9/5 – 9/7 👉 活動資訊與購票

閱讀全文〈愛好 AI Engineer 電子報 🚀 OpenAI GPT-5 推出 #31〉