原创 解密Prompt系列15. LLM Agent之數據庫應用設計:DIN & C3 & SQL-Palm & BIRD

上一章我們主要講搜索引擎和LLM的應用設計,這一章我們來嘮嘮大模型和DB數據庫之間的交互方案。有很多數據平臺已經接入,可以先去玩玩再來看下面的實現方案,推薦 sql translate:簡單,文本到SQL,SQL到文本雙向翻譯,新手體驗

原创 解密Prompt系列14. LLM Agent之搜索應用設計:WebGPT & WebGLM & WebCPM

前兩章,我們分別介紹了基於微調和prompt的工具調用方案,核心都是如何讓大模型和工具進行交互,包括生成工具調用語句和處理工具調用請求。不過在實際應用中,想要設計一個可以落地的LLM Agent,需要更全面整體的系統設計。本章我們以搜索工具

原创 解密Prompt系列13. LLM Agent-指令微調方案: Toolformer & Gorilla

上一章我們介紹了基於Prompt範式的工具調用方案,這一章介紹基於模型微調,支持任意多工具組合調用,複雜調用的方案。多工具調用核心需要解決3個問題,在哪個位置進行工具調用(where), 從衆多工具中選擇哪一個(Which), 工具的輸入是

原创 解密Prompt系列12. LLM Agent零微調範式 ReAct & Self Ask

前三章我們分別介紹了思維鏈的使用,原理和在小模型上的使用。這一章我們正式進入應用層面,聊聊如何把思維鏈和工具使用結合得到人工智能代理。 要回答我們爲什麼需要AI代理?代理可以解決哪些問題?可以有以下兩個視角 首先是我們賦能模型,如果說LLM

原创 解密Prompt系列11. 小模型也能COT-先天不足後天來補

前兩章我們分別介紹了COT的多種使用方法以及COT的影響因素。這一章更多面嚮應用,既現實場景中考慮成本和推理延時,大家還是希望能用6B的模型就不用100B的大模型。但是在思維鏈基礎和進階玩法中反覆提到不論是few-shot還是zero-sh

原创 解密Prompt系列10. 思維鏈COT原理探究

前一章思維鏈基礎和進階玩法我們介紹瞭如何寫Chain-of-thought Prompt來激活生成逐步推理,並提高模型解決複雜問題的能力,這一章我們追本溯源,討論下COT的哪些元素是提升模型表現的核心? 要進行因果分析,需要把思維鏈中的不同

原创 解密Prompt系列9. 模型複雜推理-思維鏈COT基礎和進階玩法

終於寫了一篇和系列標題沾邊的博客,這一篇真的是解密prompt!我們會討論下思維鏈(chain-of-Thought)提示詞究竟要如何寫,如何寫的更高級。COT其實是Self-ASK,ReACT等利用大模型進行工具調用方案的底層邏輯,因此在

原创 解密Prompt系列8. 無需訓練讓LLM支持超長輸入:知識庫 & unlimiformer & PCW & NBCE

這一章我們聊聊有哪些方案可以不用微調直接讓大模型支持超長文本輸入,注意這裏主要針對無限輸入場景。之前在BERT系列中我們就介紹過稀疏注意力和片段遞歸的一些長文本建模方案長文本建模 BigBird & Longformer & Reforme

原创 解密Prompt7. 偏好對齊RLHF-OpenAI·DeepMind·Anthropic對比分析

前三章都圍繞指令微調,這一章來嘮嘮RLHF。何爲優秀的人工智能?抽象說是可以幫助人類解決問題的AI, 也可以簡化成3H原則:Helpful + Honesty + Harmless。面向以上1個或多個原則,RLHF只是其中一種對齊方案,把模

原创 解密Prompt系列6. lora指令微調扣細節-請冷靜,1個小時真不夠~

上一章介紹瞭如何基於APE+SELF自動化構建指令微調樣本。這一章咱就把微調跑起來,主要介紹以Lora爲首的低參數微調原理,環境配置,微調代碼,以及大模型訓練中顯存和耗時優化的相關技術細節 標題這樣寫是因爲上週突然收到了一週內上線一版cha

原创 解密prompt系列5. APE+SELF=自動化指令集構建代碼實現

上一章我們介紹了不同的指令微調方案, 這一章我們介紹如何降低指令數據集的人工標註成本!這樣每個人都可以構建自己的專屬指令集, 哈哈當然我也在造數據集進行時~ 介紹兩種方案SELF Instruct和Automatic Prompt Engi

原创 解密Prompt系列4. 升級Instruction Tuning:Flan/T0/InstructGPT/TKInstruct

這一章我們聊聊指令微調,指令微調和前3章介紹的prompt有什麼關係呢?哈哈只要你細品,你就會發現大家對prompt和instruction的定義存在些出入,部分認爲instruction是prompt的子集,部分認爲instruction

原创 解密Prompt系列3. 凍結LM微調Prompt: Prefix-Tuning & Prompt-Tuning & P-Tuning

這一章我們介紹在下游任務微調中固定LM參數,只微調Prompt的相關模型。這類模型的優勢很直觀就是微調的參數量小,能大幅降低LLM的微調參數量,是輕量級的微調替代品。和前兩章微調LM和全部凍結的prompt模板相比,微調Prompt範式最大

原创 解密Prompt系列2. 凍結Prompt微調LM: T5 & PET & LM-BFF

這一章我們介紹固定prompt微調LM的相關模型,他們的特點都是針對不同的下游任務設計不同的prompt模板,在微調過程中固定模板對預訓練模型進行微調。以下按時間順序介紹,支持任意NLP任務的T5,針對文本分類的兩篇PET和LM-BFF。

原创 解密Prompt系列1. Tunning-Free Prompt:GPT2 & GPT3 & LAMA & AutoPrompt

藉着ChatGPT的東風,我們來梳理下prompt範式的相關模型。本系列會以A Systematic Survey of Prompting Methods in Natural Language Processing這篇綜述爲基礎,分門別