Dr. Ed H. Chi (紀懷新), Distinguished Scientist (Google DeepMind)
(是 CoT https://arxiv.org/abs/2201.11903 paper 的作者之一)
* 錄影 https://www.youtube.com/watch?v=DHacEPuM4T4 2023/9
* LLM Day 網站 https://bigmodel.ai/llmday-kdd23/ 有其他場演講的投影片,可惜似乎沒有錄影
- 講者在台灣人工智慧年會 https://conf2023.aiacademy.tw/agenda/ 也有一場講同樣的題目
- 其他人心得
- https://towardsdatascience.com/highlights-on-large-language-models-at-kdd-2023-fc53440563c3
- https://www.linkedin.com/posts/gabrielspmoreira_kdd23-activity-7094719988606935041-2VPH/
> 演講前面講點 AI 歷史和 LLM 將會是革命,接著提到 RAG 跟工具增強
> 然後是我最有收穫的 Reasoning 部分,由 paper 作者親自解說果然更有說服力!!
- 相比於手機革命,有一半的用戶從桌機轉成用手機。2016 年的深度學習,還稱不上是革命,影響太小。
- 現階段 LLM 就像魔法,但八年後就是 commonplace 了。將會是安靜的革命。
- LLM 是 multi-tasks single model
- 做到更 nature 的 chat UX,不只是 transaction 性質的對話
- LLM 可以做幫助你做規劃實際解決問題,不只是 cute chatbot
![[Pasted image 20231020025626.png]]
![[Pasted image 20231020025635.png]]
![[Xnip2023-10-20_02-04-30.jpg]]
![[Xnip2023-10-20_02-11-56.jpg]]
![[Xnip2023-10-20_02-12-27.jpg]]
![[Xnip2023-10-20_02-47-25.jpg]]
- RAG: 使用外部知識,我們教 LLM 如何使用搜尋工具
- Multi-modality: 圖像 Input 和 Output
- 將會有更多 Tool-use App 整合
![[Xnip2023-10-20_02-52-00.jpg]]
![[Pasted image 20231020025839.png]]
- 人類已經被 搜尋引擎 增強,發生了兩次革命
- 搜尋引擎革命
- 手機革命
- LLM (super human) 也將會是一次增強,讓人類成為 super super human
- 關鍵部分,就是 推理能力!
![[Pasted image 20231020031140.png]]
![[Pasted image 20231020031637.png]]
![[Pasted image 20231020031738.png]]
他們想出可用 CoT
![[Pasted image 20231020031748.png]]
![[Pasted image 20231020031818.png]]
![[Pasted image 20231020032427.png]]
![[Pasted image 20231020032602.png]]
就像叫小孩用不同方式思考,我們也呼叫模型多次,產生不同方式推理路徑,用不同溫度,得到最多次認為是正確的答案
![[Pasted image 20231020032613.png]]
![[Pasted image 20231020032817.png]]
面對 CoT 也解決不了的問題
分解問題: 將子問題從簡單排到難,可用某種遞迴方式處理
![[Pasted image 20231020032841.png]]
![[Pasted image 20231020032927.png]]
更像是教小孩
![[Pasted image 20231020033207.png]]
這需要模型有一定規模以上,才能成功練成遵守指令! (尚無法完美解釋原因!)
![[Pasted image 20231020033400.png]]
![[Pasted image 20231020033555.png]]
![[Pasted image 20231020033618.png]]
![[Pasted image 20231020033743.png]]
![[Pasted image 20231020033852.png]]
![[Pasted image 20231020033910.png]]
![[Pasted image 20231020034050.png]]
![[Pasted image 20231020035852.png]]
![[Pasted image 20231020040402.png]]
![[Pasted image 20231020040756.png]]
歷史告訴我每八年會有一次革命
雖然 2015 年算是錯過了,現在八年又過去了....
![[Pasted image 20231020041001.png]]
## Teach language models to reason
講者多次提到他同事 Denny (也是 CoT paper 作者) 有一場講 Teach language models to reason
這投影片內容也很讚: http://dennyzhou.github.io/Teach-LLMs-to-Reason-KDD-2023.pdf
* 用一個簡單的案例,示範 CoT 的威力
* 解釋了 Self-consistency 的重點在於推理路徑的不同
* 解釋 Least-to-Most Prompting
* 解釋 LLMs as Optimizers