不算啥指南只是一些自己认为不熟练的内容做一个新的整理。RAG 与大模型的调用关系完整请求流程很多同学会困惑一个用户请求进来什么时候调用 RAG什么时候直接问大模型这其实是个流程设计问题我梳理一下标准的调用链路典型的请求处理流程什么时候会触发 RAG[!tip]一句话总结当问题答案需要「你的私有知识库信息」时才需要调用 RAG。如果问题能用大模型的通用知识回答就不用调用。具体来说以下场景一定会触发 RAG场景例子是否触发RAG企业内部政策合规问题“我们公司年假规定是几天”✅ 必须触发产品文档/手册查询“这款手机的保修政策是什么”✅ 必须触发合同条款查询“这份合同里关于违约金怎么规定的”✅ 必须触发基于私有数据的分析“帮我分析下上个月销售数据中top3商品有什么特点”✅ 必须触发通用知识问题“Python怎么定义一个类”❌ 直接问大模型创意生成“帮我写一封节日祝福邮件”❌ 直接问大模型推理计算“123…100等于多少”❌ 直接问大模型RAG 在整个架构中的位置从分层架构角度看RAG 其实是大模型的一个上下文增强插件用户问题 → RAG 负责找知识从你的私有知识库中召回和问题相关的片段RAG 找到的知识 用户问题 → 一起喂给大模型大模型负责懂语言、组织回答大模型基于检索到的知识生成答案 → 返回用户[!info] 核心关系 RAG 不替代大模型而是增强大模型。RAG 负责解决知识陈旧、知识私有、来源可追溯这几个问题大模型仍然负责自然语言理解和生成。两种常见的调用模式1. 先检索再生成最常用用户问退货时运费谁承担↓去RAG知识库检索 → 找到七天无理由退货买家承担运费质量问题商家承担↓把问题 检索结果拼起来已知信息{{检索结果}}请根据上面的信息回答用户问题{{用户问题}}↓调用大模型生成回答2. 渐进式检索进阶如果问题复杂大模型先分析问题分解成几个子问题然后多次调用 RAG逐步检索最后综合答案。适合回答那种需要多文档交叉验证的复杂问题。一句话记住通用知识大模型直接搞定需要你的私有数据先走 RAG 检索一把。工程实现上怎么判断要不要触发 RAG刚才说的是逻辑判断在代码开发层面业界有几种成熟的判断方法**方法一分类器判断最常用**用一个小模型直接做二分类问题分类成「需要知识库」还是「不需要知识库」。模型怎么知道判断标准就是你靠 Prompt 教给它的# Prompt 模板让大模型自己判断 → 你把判断规则写在prompt里模型自然会按规则输出classification_prompt f用户问题: {user_question}请判断这个问题是否需要查询企业内部知识库才能回答- 如果需要**私有知识、内部文档、产品信息、公司政策**才能回答 → 输出 NEED_RAG- 如果是**通用知识、创意生成、推理计算**大模型本身训练数据里已经有了 → 输出 NO_RAG只输出 NEED_RAG 或 NO_RAG不要输出其他内容。# 调用小模型比如 GPT-3.5-turbo 就够了判断 → 模型会按照你给的规则输出result call_llm(classification_prompt)# 模型输出就是 NEED_RAG 或者 NO_RAG你的代码根据这个字符串判断if result NEED_RAG: trigger_rag_retrieval(user_question) # 模型说需要触发 RAGelse: directly_answer(user_question) # 模型说不需要直接回答举个例子用户问我们公司年假有几天→ 模型一看这是公司内部政策大模型不可能知道 → 输出NEED_RAG用户问Python怎么写循环→ 模型一看这是通用编程知识 → 输出NO_RAG优点实现简单准确率不错缺点1) 多调用一次大模型增加延迟2)分类提示词冗余每轮重复传输50-100 tokens3)多轮对话时上下文爆炸10轮对话就浪费500 tokens加速达到窗口限制。方法二向量相似度匹配把用户问题向量化去知识库比对比对如果能找到相似度超过阈值的 chunk就触发 RAG找不到就直接回答。# 1. 用户问题向量化question_embedding embed_model.embed(user_question)# 2. 去向量库找最相似的 top1top_result vector_db.search(question_embedding, top_k1)max_similarity top_result[0].similarity# 3. 阈值判断if max_similarity threshold: # 比如阈值设 0.7 trigger_rag_retrieval(user_question) # 找到相关知识触发 RAGelse: directly_answer(user_question) # 找不到说明不需要优点不需要多调用一次大模型速度快。⚠️这个方法真正的陷阱它用「检索环节的副产品」来决定是否触发RAGRAG检索本身有召回率和排序质量问题比如应该召回top10但实际只召回top3而这个方法只看top1相似度就做二元决策 →双重放大了检索问题例用户问退货运费规则本该召回10条相关条款但因检索不准只召回3条且top1相似度0.65低于0.7阈值你的系统会误判为不需要RAG→ 直接让大模型瞎猜 → 回答错误本质区别网上说的向量检索召回率低是RAG系统内部问题而这里的问题是前端判断逻辑放大了内部问题解决方案✅阈值调低比如0.5但会误判更多✅用top5平均分替代top1✅加一层元数据过滤比如如果问题含’退货’关键词强制触发) ✅采用混合搜索先用关键词如BM25或元数据过滤进行粗筛再在筛选出的小范围内做向量搜索能显著提升相关性。方法三关键词/规则匹配最简单粗暴预设一批关键词如果问题命中就触发 RAG。# 比如知识库是关于公司人事政策的trigger_keywords [年假, 社保, 公积金, 加班, 请假, 工资, 合同]if any(keyword in user_question for keyword in trigger_keywords): trigger_rag() # 命中关键词触发else: directly_answer()优点成本为0速度极快缺点灵活性差覆盖不全。适合场景非常固定的系统。方法四不管什么问题都触发 RAG懒人大法很多生产系统直接选择不管用户问什么都先检索一遍知识库然后把检索结果拼进去。如果没找到相关内容大模型发现检索结果没用自然会用自己的知识回答。# 所有请求都走一遍 RAGretrieved_chunks rag_retrieval(user_question)prompt build_prompt(user_question, retrieved_chunks)answer call_llm(prompt)优点代码最简单不会漏缺点不管要不要都检索浪费一点 token 和时间但现在向量检索都很快其实也花不了几个钱。这是目前很多产品的实际做法。[!tip] 我的推荐场景固定 → 方法三规则足够用追求性能 → 方法二向量相似度追求准确 → 方法一大模型分类不想瞎折腾 → 方法四全都检索最简单可靠RAG为啥是企业AI的“必选项”它能解决大模型的四大痛点不用重新训练更新知识库就能同步新内容答案基于检索到的文档能追溯来源减少“胡编”知识库可本地部署数据不出企业隐私有保障不用微调大模型成本比训练低太多。对企业来说这简直是“用得起、靠得住”的AI解决方案。RAG构建的“关键四步”文档治理你想让AI会回答什么得先给它“喂对”内容。很多企业的文档格式乱成一锅粥Word、PDF、网页、数据库混在一起还有大段装饰性文字、重复的FAQ。这里的窍门是“结构化优先”比如数据库里的商品SPU、知识表字段清晰上下文明确优先喂给AI弱结构化的文档比如用户手册得先清洗——用正则工具去掉没用的装饰统一格式把“七天无理由退货”和“7日退货”这类近义句归一化。别嫌麻烦这步做不好后面再努力也白搭。[备注] 到底什么是“结构化优先”这个原则的核心是优先处理那些格式清晰、自带“说明书”的数据。可以对比一下结构化数据可以想象成一张规整的Excel表格或JSON文件。数据有明确的“字段”Key和“内容”Value比如{问题: 退货运费谁承担, 答案: 质量问题商家承担...}。AI能100%理解每个部分的含义处理起来没有歧义质量非常高。非结构化数据指大段的Word/PDF/纯文本文档。信息都混在自然语言里比如文章中提到“它的价格是99元”程序需要复杂处理才能推断出价格和产品的对应关系更容易出错。“结构化优先”并非要求把所有东西都转成JSON而是建议在构建知识库时先从你手头最规整、最干净的数据如数据库、API、规整的CSV/JSON文件开始。这些是能最快提升问答准确率的“低垂的果实”。处理完这些后再投入精力去清洗和导入格式混乱的文档。切块策略把文档切成“语义完整的小块”是门技术活。块太大信息冗余检索慢块太小语义缺失AI理解不了。比如电商的FAQ文档“Q发票什么时候能开A发货后3个工作日内发电子发票”必须把QA合并成一个chunk要是分开AI准答不上。长文档超过512token的话就用“滑动窗口重叠”——比如从第100字切到612字下一块从512字开始保证语义连贯。值得注意的是对于包含表格、代码或图文混排的复杂文档简单的文本切块效果有限。这时可以考虑更高级的策略如基于版面分析的切块例如使用unstructured.io这类库能解析PDF/HTML的结构或语义切块Semantic Chunking即利用语言模型来识别文本中的语义断点确保切分的每个块都是一个完整的语义单元。嵌入与向量库这是RAG的“知识翻译机”和“ storage”。嵌入模型负责把文本变成“能被模型理解的向量”中文场景优先选bge-large-zh或bge-m3效果稳要服务海外就用OpenAI的多语言模型。别贪高维度维度越高向量库越占空间查询越慢。向量库选对了能省大心千条以下用FAISS够用要上生产环境Milvus或Qdrant更稳想做混合检索比如向量关键词用OpenSearch加Dense Retrieval插件AWS都在用这一套。检索策略这是RAG效果的“分水岭”。你用的不是大模型是“召回的上下文”所以得把对的chunk召回来还得排对序。比如电商用户问“退货运费怎么算”向量召回了3条内容商品页描述、客服话术、退货规则。这时候要给客服话术加更高的权重metadata标记因为客服话术更贴近用户问题要是相似度都高就用重排模型Reranker进行二次精排。重排Re-ranking是提升检索质量的关键一步。它通常使用Cross-encoder模型该模型会同时处理用户问题和被召回的文档块输出一个更精确的相关性分数。这比向量检索使用Bi-encoder更慢但准确得多非常适合在向量检索召回比如top 20之后送入大模型之前做一次高质量的筛选排序。[备注] 模型类型辨析双塔模型 (Bi-encoder) vs 交叉编码器 (Cross-encoder)没错重排Re-ranking确实是需要再调用一次模型。这里需要区分两种模型双塔模型 (Bi-encoder)如bge-large-zh。它有两个独立的“塔”分别将问题和文档独立编码成向量然后计算向量间的相似度。这种方式速度快适合从海量数据中快速“海选”召回出可能相关的文档。但因为问题和文档没有直接交互对语义的理解不够精细。交叉编码器 (Cross-encoder)这是用于重排的模型。它会将问题和文档“拼接”起来一同输入模型进行计算。这使得模型能同时看到两者的完整上下文进行更深层次的交互和判断从而给出更精准的相关性排序。它准确率高但速度慢因此适合对“海选”出的一小批结果进行“精选”重排。简单说两者是互补关系双塔模型负责召回效率交叉编码器负责重排效果。真实场景里我们试过给Dify调检索策略——把“官方文档第三方内容”“最新内容旧内容”设为权重回答准确率直接提了30%。[备注] 如何理解“给Dify调检索策略”这句话这句话是“检索策略”部分一个非常画龙点睛的例子。它指的是在像Dify这样的LLM应用开发平台中通过设定权重让检索系统变得更“智能”。规则一“官方文档 第三方内容”含义告诉系统“官方发布的内容比第三方博客更可信”。实现为文档添加来源元数据如source: official并在检索时为来自官方来源的文档增加权重加分使其排名更靠前。规则二“最新内容 旧内容”含义告诉系统“时间越近的信息越有价值”。实现为文档添加发布日期元数据并让系统优先考虑日期更新的文档。总结通过这种方式系统不再是简单地看“文字像不像”而是综合考虑了信息的“来源权威性”和“时效性”。这确保了提供给大模型的“原材料”质量更高从而大幅提升了最终答案的准确率。[备注] 金牌助理的比喻如果感觉上面的概念有点抽象我们可以用一个比喻来理解。想象一下大模型LLM是一位非常聪明但“健忘”的老板他懂天下事但完全不记得自己公司的内部资料。你就是老板的得力助手。当客户提问时老板会让你去资料库找相关规定。你的“检索策略”好坏决定了你是普通助手还是金牌助手。普通助手的做法没有策略在资料库里搜索关键词然后把找到的10份文件包括法务条款、网页说明、陈旧邮件等一股脑全抱给老板。老板看完会头大给出的答案不一定准。这就像最基础的向量检索只负责“找相关的”但不管哪个“最好”。金牌助手的做法有策略分清主次文档加权你早就知道客服内部的《FAQ》是回答客户问题的“标准答案”并提前给它贴了“高优先级”标签。找文件时你看到这个标签就直接把这份FAQ放在了最上面。优中选优重排 Re-ranking对于剩下几份看起来也相关的文件你会拿着客户的具体问题自己先快速、仔细地对比一遍看看哪个文件能最完美地回答问题。最后你只把最匹配的那一两份核心材料递给老板。总结好的检索策略就是让你从一个只会“搜索”的普通助手升级成一个懂得“筛选”和“排序”的金牌助手。这样大模型拿到的永远是“含金量”最高的材料最终生成的答案自然就更准确、更可靠。RAG 效果的评估与迭代构建了RAG系统后如何衡量“建得好不好”并持续优化呢这就需要一套科学的评估体系。一个完整的RAG评估应关注以下几个核心指标召回率Context Recall衡量检索系统是否成功召回了所有相关信息。即“找得全不全”。精确率Context Precision衡量召回的知识中有多少是与问题真正相关的。即“找得准不准”。答案相关性Answer Relevance衡量大模型生成的答案是否切中用户问题。忠实度Faithfulness衡量答案是否完全基于所提供的上下文知识没有“胡编乱造”。在实践中通常需要构建一个评测集黄金数据集包含一系列标准问答对和相关的知识源。通过自动化地运行评测集我们就能量化地追踪系统在优化例如更换嵌入模型、调整检索策略前后的表现变化从而实现数据驱动的迭代优化。像Ragas、ARES这样的开源框架都提供了实现上述评估的工具。再说说企业的真实应用场景智能客服可以把RAG集成到系统里知识库放产品手册、FAQ秒级响应还准确知识管理系统里把合同、政策文档喂给RAG找条款比翻文档快10倍数据分析助手更实用——把数据库表结构、字段说明放进知识库用户问“上个月销量top3的商品”AI能直接生成SQL查询不用懂代码。最后给大家提几个“避坑提醒”第一文档质量是基础——用标准格式PDF、Markdown结构清晰扫描件一定要OCR处理第二别贪“大模型”——中文场景用bge就够高参模型效果好但成本高除非是专业领域第三安全要盯紧——知识库本地部署加权限控制别让敏感数据泄露第四定期优化——根据用户反馈调整切块策略、检索权重比如用户总问“退货运费”就把客服话术的权重再调高些。RAG 系统相关开源框架与技术栈总结1. LLM 应用开发平台这类平台集成了RAG的完整流程让你能以低代码或通过简单配置的方式快速构建和部署AI应用。Dify简介文章中提到的实例一个上手简单、功能强大的LLM应用开发平台内置了完整的RAG引擎包括数据处理、检索、重排和评估等功能。GitHub:https://github.com/langgenius/dify2. 向量数据库 (Vector Database)用于存储文档向量化后的Embedding并提供高效的相似度检索。FAISS (Facebook AI Similarity Search)简介文章中推荐用于千条数据量以下的场景。它是一个高性能的向量相似度搜索库而不是一个完整的数据库服务。GitHub:https://github.com/facebookresearch/faissMilvus简介文章推荐的生产级向量数据库功能全面专为大规模向量检索设计。GitHub:https://github.com/milvus-io/milvusQdrant简介与Milvus类似是另一款流行的生产级向量数据库以其性能和易用性著称。GitHub:https://github.com/qdrant/qdrantOpenSearch简介一个开源的分布式搜索和分析引擎源自Elasticsearch。通过安装Dense Retrieval等插件可以实现关键词向量的混合检索。GitHub:https://github.com/opensearch-project/OpenSearch3. 嵌入与重排模型 (Embedding Reranker Models)这些模型负责将文本“翻译”成向量或对召回结果进行精排。它们通常托管在Hugging Face上。BGE (BAAI General Embedding) Models简介文章首推的中文场景嵌入模型如bge-large-zh-v1.5。由北京智源人工智能研究院BAAI开发效果稳健。Hugging Face:https://huggingface.co/BAAI/bge-large-zh-v1.5BGE Reranker Models简介与BGE嵌入模型配套的重排模型Cross-encoder。在你需要对召回结果进行二次精排时使用。Hugging Face:https://huggingface.co/BAAI/bge-reranker-large4. 文档处理与切块 (Document Processing Chunking)Unstructured.io简介文章中提到的用于“基于版面分析切块”的库。它能智能解析PDF、HTML、Word等复杂文档提取文本和表格等结构化内容。GitHub:https://github.com/Unstructured-IO/unstructured5. RAG 评估框架 (Evaluation Frameworks)用于科学地衡量RAG系统的性能实现数据驱动的优化。Ragas简介文章中提到的评估框架之一提供了一套完整的指标如忠实度、答案相关性等来评估RAG流水线的各个环节。GitHub:https://github.com/explodinggradients/ragasARES简介文章提到的另一个评估框架由斯坦福大学开发旨在通过模拟人工评估来自动化地评测RAG系统的准确性。GitHub:https://github.com/stanford-futuredata/ARES其实RAG没那么复杂关键是”贴着业务需求搭”——别追求”高大上”的技术能解决问题的才是好方案。普通人如何抓住AI大模型的风口领取方式在文末为什么要学习大模型目前AI大模型的技术岗位与能力培养随着人工智能技术的迅速发展和应用 大模型作为其中的重要组成部分 正逐渐成为推动人工智能发展的重要引擎 。大模型以其强大的数据处理和模式识别能力 广泛应用于自然语言处理 、计算机视觉 、 智能推荐等领域 为各行各业带来了革命性的改变和机遇 。目前开源人工智能大模型已应用于医疗、政务、法律、汽车、娱乐、金融、互联网、教育、制造业、企业服务等多个场景其中应用于金融、企业服务、制造业和法律领域的大模型在本次调研中占比超过30%。随着AI大模型技术的迅速发展相关岗位的需求也日益增加。大模型产业链催生了一批高薪新职业人工智能大潮已来不加入就可能被淘汰。如果你是技术人尤其是互联网从业者现在就开始学习AI大模型技术真的是给你的人生一个重要建议最后只要你真心想学习AI大模型技术这份精心整理的学习资料我愿意无偿分享给你但是想学技术去乱搞的人别来找我在当前这个人工智能高速发展的时代AI大模型正在深刻改变各行各业。我国对高水平AI人才的需求也日益增长真正懂技术、能落地的人才依旧紧缺。我也希望通过这份资料能够帮助更多有志于AI领域的朋友入门并深入学习。真诚无偿分享vx扫描下方二维码即可加上后会一个个给大家发【附赠一节免费的直播讲座技术大佬带你学习大模型的相关知识、学习思路、就业前景以及怎么结合当前的工作发展方向等欢迎大家~】大模型全套学习资料展示自我们与MoPaaS魔泊云合作以来我们不断打磨课程体系与技术内容在细节上精益求精同时在技术层面也新增了许多前沿且实用的内容力求为大家带来更系统、更实战、更落地的大模型学习体验。希望这份系统、实用的大模型学习路径能够帮助你从零入门进阶到实战真正掌握AI时代的核心技能01教学内容从零到精通完整闭环【基础理论 →RAG开发 → Agent设计 → 模型微调与私有化部署调→热门技术】5大模块内容比传统教材更贴近企业实战大量真实项目案例带你亲自上手搞数据清洗、模型调优这些硬核操作把课本知识变成真本事‌02适学人群应届毕业生‌无工作经验但想要系统学习AI大模型技术期待通过实战项目掌握核心技术。零基础转型‌非技术背景但关注AI应用场景计划通过低代码工具实现“AI行业”跨界‌。业务赋能突破瓶颈传统开发者Java/前端等学习Transformer架构与LangChain框架向AI全栈工程师转型‌。vx扫描下方二维码即可【附赠一节免费的直播讲座技术大佬带你学习大模型的相关知识、学习思路、就业前景以及怎么结合当前的工作发展方向等欢迎大家~】本教程比较珍贵仅限大家自行学习不要传播更严禁商用03入门到进阶学习路线图大模型学习路线图整体分为5个大的阶段04视频和书籍PDF合集从0到掌握主流大模型技术视频教程涵盖模型训练、微调、RAG、LangChain、Agent开发等实战方向新手必备的大模型学习PDF书单来了全是硬核知识帮你少走弯路不吹牛真有用05行业报告白皮书合集收集70报告与白皮书了解行业最新动态0690份面试题/经验AI大模型岗位面试经验总结谁学技术不是为了赚$呢找个好的岗位很重要07 deepseek部署包技巧大全由于篇幅有限只展示部分资料并且还在持续更新中…真诚无偿分享vx扫描下方二维码即可加上后会一个个给大家发【附赠一节免费的直播讲座技术大佬带你学习大模型的相关知识、学习思路、就业前景以及怎么结合当前的工作发展方向等欢迎大家~】