Dr. Ed H. Chi (紀懷新), Distinguished Scientist (Google DeepMind) (是 CoT https://arxiv.org/abs/2201.11903 paper 的作者之一) * 錄影 https://www.youtube.com/watch?v=DHacEPuM4T4 2023/9 * LLM Day 網站 https://bigmodel.ai/llmday-kdd23/ 有其他場演講的投影片,可惜似乎沒有錄影 - 講者在台灣人工智慧年會 https://conf2023.aiacademy.tw/agenda/ 也有一場講同樣的題目 - 其他人心得 - https://towardsdatascience.com/highlights-on-large-language-models-at-kdd-2023-fc53440563c3 - https://www.linkedin.com/posts/gabrielspmoreira_kdd23-activity-7094719988606935041-2VPH/ > 演講前面講點 AI 歷史和 LLM 將會是革命,接著提到 RAG 跟工具增強 > 然後是我最有收穫的 Reasoning 部分,由 paper 作者親自解說果然更有說服力!! - 相比於手機革命,有一半的用戶從桌機轉成用手機。2016 年的深度學習,還稱不上是革命,影響太小。 - 現階段 LLM 就像魔法,但八年後就是 commonplace 了。將會是安靜的革命。 - LLM 是 multi-tasks single model - 做到更 nature 的 chat UX,不只是 transaction 性質的對話 - LLM 可以做幫助你做規劃實際解決問題,不只是 cute chatbot ![[Pasted image 20231020025626.png]] ![[Pasted image 20231020025635.png]] ![[Xnip2023-10-20_02-04-30.jpg]] ![[Xnip2023-10-20_02-11-56.jpg]] ![[Xnip2023-10-20_02-12-27.jpg]] ![[Xnip2023-10-20_02-47-25.jpg]] - RAG: 使用外部知識,我們教 LLM 如何使用搜尋工具 - Multi-modality: 圖像 Input 和 Output - 將會有更多 Tool-use App 整合 ![[Xnip2023-10-20_02-52-00.jpg]] ![[Pasted image 20231020025839.png]] - 人類已經被 搜尋引擎 增強,發生了兩次革命 - 搜尋引擎革命 - 手機革命 - LLM (super human) 也將會是一次增強,讓人類成為 super super human - 關鍵部分,就是 推理能力! ![[Pasted image 20231020031140.png]] ![[Pasted image 20231020031637.png]] ![[Pasted image 20231020031738.png]] 他們想出可用 CoT ![[Pasted image 20231020031748.png]] ![[Pasted image 20231020031818.png]] ![[Pasted image 20231020032427.png]] ![[Pasted image 20231020032602.png]] 就像叫小孩用不同方式思考,我們也呼叫模型多次,產生不同方式推理路徑,用不同溫度,得到最多次認為是正確的答案 ![[Pasted image 20231020032613.png]] ![[Pasted image 20231020032817.png]] 面對 CoT 也解決不了的問題 分解問題: 將子問題從簡單排到難,可用某種遞迴方式處理 ![[Pasted image 20231020032841.png]] ![[Pasted image 20231020032927.png]] 更像是教小孩 ![[Pasted image 20231020033207.png]] 這需要模型有一定規模以上,才能成功練成遵守指令! (尚無法完美解釋原因!) ![[Pasted image 20231020033400.png]] ![[Pasted image 20231020033555.png]] ![[Pasted image 20231020033618.png]] ![[Pasted image 20231020033743.png]] ![[Pasted image 20231020033852.png]] ![[Pasted image 20231020033910.png]] ![[Pasted image 20231020034050.png]] ![[Pasted image 20231020035852.png]] ![[Pasted image 20231020040402.png]] ![[Pasted image 20231020040756.png]] 歷史告訴我每八年會有一次革命 雖然 2015 年算是錯過了,現在八年又過去了.... ![[Pasted image 20231020041001.png]] ## Teach language models to reason 講者多次提到他同事 Denny (也是 CoT paper 作者) 有一場講 Teach language models to reason 這投影片內容也很讚: http://dennyzhou.github.io/Teach-LLMs-to-Reason-KDD-2023.pdf * 用一個簡單的案例,示範 CoT 的威力 * 解釋了 Self-consistency 的重點在於推理路徑的不同 * 解釋 Least-to-Most Prompting * 解釋 LLMs as Optimizers