Hello! 你好 👋
我是 ihower,祝大家新年快樂~ Happy New Year~ ✨🎉
Anthropic 在11月底推出了 Claude 2.1,當時有個 Recall 評測(tweet) 很慘烈,在 200K tokens 長上下文的情況下,放在 Prompt 中間的內容,模型時常會無法回憶起內容。必須要放在最前面或是最底部,才能接近 100% 的 Recall 效能,這對 RAG 的應用來說很重要。
Anthropic 在12月初做了回應,在這篇 Long context prompting for Claude 2.1 中,透過加一句提示詞 “Here is the most relevant sentence in the context:” 就大幅提升了Recall 效能從 27% 提升到 98%,就這一句 Prompt Engineering 技巧,分數提升非常多。
閱讀全文〈愛好 AI Engineer 週報 🚀 Claude 的 Prompting 實驗 #06〉