https://learningprompt.wiki/zh-Hans/docs/chatGPT/tutorial-extras/few-shot-prompting
https://www.promptingguide.ai/techniques/fewshot
https://learnprompting.org/docs/advanced/few_shot/introduction
## Dynamic few-shot
* 一般性介紹 https://medium.com/@iryna230520/dynamic-few-shot-prompting-overcoming-context-limit-for-chatgpt-text-classification-2f70c3bd86f9
* 注意平衡抽象,不能都挑最相似的
* 作者作品 https://github.com/iryna-kondr/scikit-llm
* https://medium.com/@iryna230520/scikit-llm-nlp-with-chatgpt-in-scikit-learn-733b92ab74b1
* use case: 多標籤分類, 多類別評論分類
https://www.microsoft.com/en-us/research/blog/the-power-of-prompting/
https://www.microsoft.com/en-us/research/blog/steering-at-the-frontier-extending-the-power-of-prompting/
https://www.promptingguide.ai/applications/synthetic_rag
https://x.com/hwchase17/status/1877407417656553831 (2025/1/10)
* Adaptive In-Context Learning
* https://blog.vespa.ai/vespa-in-context-learning/
* https://arxiv.org/abs/2405.01116 (2024/5)
## Many-Shot In-context learning
* Many-Shot In-Context Learning https://arxiv.org/abs/2404.11018 (2024/4)
* 既然可以長文本,那我們來塞超多 examples 看看性能是否可以再提升? yes, 實驗結果是可以
* 實驗了不同任務,從數個 shots 到好幾百的 shots,從少次到多次時,性能有顯著提升
* 但本研究的一個重要限制是它在所有實驗中都使用了一個單一模型 Gemini 1.5 Pro
*
* In-Context Learning with Long-Context Models: An In-Depth Exploration
* 透過數千個範例擴展到 1,000 個樣本的學習可以提高準確性並減少錯誤
* https://arxiv.org/abs/2405.00200
* https://twitter.com/abertsch72/status/1786392584765538350 5/3
* https://twitter.com/emollick/status/1787301629001089446 5/6
### 自動從大模型,透過評估機制,自動生成適合小模型的 prompt
https://x.com/SullyOmarr/status/1814318587324100683
https://x.com/eugeneyan/status/1814443510055293352
n到128+ 的話,連 instructions 都不需要了.....
這對便宜的 mini 模型會蠻實用的,因為
4o-mini 輸出便宜 25 倍,輸入便宜 33 倍
如果輸入跟輸出長度一樣,
但輸入長度 4o-mini 增加 128 倍好了
4o 跟 4o-mini 價錢會一樣,但只要輸出越多,4o-mini 就越便宜
haiku 如果有 prompt caching 輸入比較便宜的話,就更划算了
https://github.com/mshumer/gpt-prompt-engineer/blob/main/Claude_3_5_Sonnet_to_gpt_4o_mini_Conversion.ipynb
https://x.com/dotey/status/1815260971197211026
昨天我們在 Anthropic API 中推出了提示快取,這大幅降低了 API 的輸入成本和延遲。
我最興奮的是它如何解鎖超少量提示,作為微調的輕量替代方案:
https://x.com/alexalbert__/status/1824136128850723084
> 不需要微調!