把 RAG 做成主流的公司,现在开始“做空”RAG 了
Pinecone 刚刚几乎等于亲口宣布RAG 时代结束了。作为向量数据库赛道的开创者Pinecone 当年亲手把 RAG 定义成了大语言模型 grounding 的标准范式。过去几年里大约 80 万开发者、9000 家付费客户都在 Pinecone 的基础设施上学习如何切 chunk、做 embedding、跑 retrieval。而随着本周一发布面向 Agent 的知识引擎 NexusPinecone 现在却开始告诉这些开发者他们过去学会的那套模式如今反而成了瓶颈。1 Pinecone 亲手定义的赛道如今被它亲手判了过时如果仔细看 Pinecone 对 Nexus 的描述会发现它几乎是在重新定义整个 retrieval 模式。它把 retrieval-at-inference推理检索形容成“Agent 检索的十条蓝色链接时代the ten blue links era of agentic retrieval”。这里的“十条蓝色链接”其实是在借用早年搜索引擎的经典意象搜索引擎只负责甩给你一堆链接用户自己点进去、自己阅读、自己拼信息。Pinecone 的意思是现在很多 Agent 的 retrieval本质上也还停留在这种“AI 版搜索引擎”阶段——不停 retrieve、read、再 retrieve。它给出的数据是陷在 retrieve-read-retrieve 循环里的 Agent任务完成率通常只有 50% 到 60%而且 Agent 85% 的精力其实都消耗在“找上下文”这件事上。Pinecone 的核心观点是把一堆原始 chunk 直接丢给前沿模型然后期待模型自己理解、自己推理这套方式既脆弱、又慢还非常昂贵。而这套描述其实就是换了个名字的 RAG。过去四年里Pinecone 一直在推动的正是这套模式教程、培训内容、开发者关系体系几乎全都围绕它展开。只是现在向量数据库已经不再是面向开发者的“产品表层”而变成了更底层的基础设施。真正的产品层又往上移动了一层。这种级别的“自我揭短”其实很少见。大多数基础设施厂商即便已经意识到旧模式在衰退也会继续卖旧东西等市场自己慢慢察觉。但 Pinecone 成了第一个主动把这件事说出来的厂商他们表示“Agent 时代需要一些不同的东西。”2 “知识编译”正在取代 RAGPinecone 现在的新关键词叫“Knowledge Compilation知识编译”。核心变化其实是把“推理”提前了。他们表示今天的 Agent其实还无法真正表达“自己需要什么”。这不是功能缺失而是更底层的结构性缺口。现在几乎每一个做 Agent 应用的团队都在重复造同样的 retrieval 轮子自定义工具定义、在 Agent 框架和数据源之间写一堆胶水代码、做各种一次性的集成而这些东西只要底层稍微变化一下就会崩掉。整个行业至今都没有一套统一的“知识请求语言”让 Agent 能清楚表达自己究竟想从知识系统里得到什么。这其实不是第一次发生类似的事。在 SQL 出现之前每个应用也都得自己实现一套数据访问层。后来 SQL 给关系型数据库提供了一个通用接口整个应用生态才真正建立起来。真正改变行业的不只是数据库本身而是那个统一接口。现在 Agent 也走到了类似的结构性时刻。而且有些东西它们今天甚至根本“说不出来”。“直接把答案给我而不是二十段 chunk。”现在没有统一的输出结构约定Agent 拿到的往往还是原始文本每次调用之后都得重新解析token 消耗也随之暴涨。“告诉我答案来自哪个来源以及它的可信度。”今天大多数系统都缺乏字段级别的 groundingAgent 没法区分哪些是事实、哪些只是模型猜测于是输出天然不稳定也缺乏治理能力。“把推理深度控制在标准范围内并在 500 毫秒内返回。”现在没有统一的 budget envelope预算边界。每次调用可能无限下钻、无限延长最终结果就是不可预测、缓慢而浪费。KnowQL 想解决的就是 Agent 缺失的这套“表达能力”。过去的模式里Agent 会在查询时临时抓取二十段 chunk再疯狂消耗 token 去理解这些内容到底是什么意思而 Nexus 的做法是提前把源数据预编译成带类型、可引用、面向具体任务的知识产物artifacts。Agent 查询的不再是原始语料库而是这些已经整理好的 artifacts。KnowQL 则给 Agent 提供了一套完成这件事的“语言”。它把 intent意图、filter过滤、provenance来源、output shape输出格式、confidence置信度以及 latency budget延迟预算这六个 primitive封装进一次声明式调用里最终直接返回一个带引用、结构化的结果。Pinecone 声称这种方式能把任务完成率提高到 90% 以上同时把 token 开销降低 90%。这些数字当然还需要生产环境验证暂时别太早全信。但就算不看具体数字方向其实已经很明确了“编译一次多次复用compile once, read many times”本来就更适合 Agent 工作负载。而且往这个方向走的也不只有 Pinecone 一家。更大的趋势其实是整个 AI 世界都在把“推理”往上游移动。Anthropic 推出的 Skills本质上就是预编译、可复用的上下文包Cursor 的 Rules在编辑器层做的是同一件事Claude Code 的 subagents会为不同任务提前打包上下文和工具而 LangChain 的 Harrison Chase 这几个月一直在强调的“context engineering”也是同一个方向。现在Pinecone 只是把这种思路推进到了 retrieval 层。这个模式本身并不新鲜。真正新鲜的是第一个公开宣布它的人居然是 Pinecone 自己。当然也有人会提出合理质疑。KnowQL 能不能像 SQL 那样成为真正的标准还有很长的路要走。毕竟标准不是某一家厂商一句话就能定义出来的。向量检索本身也不会消失很多 Agent 工作负载依然需要廉价、快速的文本相似度搜索。真正变化的是价值所在的位置。如果未来 12 个月的发展真的像 Pinecone 押注的那样那么向量搜索会慢慢变成“水电煤”一样的基础设施Knowledge Compilation 才会成为真正的产品层而“RAG pipeline”这个词最后可能会像今天的“LAMP stack”一样变成一种带着敬意的历史名词。最可能判断错的其实也是“时间点”。因为一个技术范式的衰退往往都会比厂商宣告它“结束”时来得更慢。但大的方向已经很明显了。而最先把这个方向说出来的偏偏正是当年亲手把 RAG 做成主流的那家公司。那个曾经教你怎么做 RAG 的厂商现在开始告诉你别再这么干了。学AI大模型的正确顺序千万不要搞错了2026年AI风口已来各行各业的AI渗透肉眼可见超多公司要么转型做AI相关产品要么高薪挖AI技术人才机遇直接摆在眼前有往AI方向发展或者本身有后端编程基础的朋友直接冲AI大模型应用开发转岗超合适就算暂时不打算转岗了解大模型、RAG、Prompt、Agent这些热门概念能上手做简单项目也绝对是求职加分王给大家整理了超全最新的AI大模型应用开发学习清单和资料手把手帮你快速入门学习路线:✅大模型基础认知—大模型核心原理、发展历程、主流模型GPT、文心一言等特点解析✅核心技术模块—RAG检索增强生成、Prompt工程实战、Agent智能体开发逻辑✅开发基础能力—Python进阶、API接口调用、大模型开发框架LangChain等实操✅应用场景开发—智能问答系统、企业知识库、AIGC内容生成工具、行业定制化大模型应用✅项目落地流程—需求拆解、技术选型、模型调优、测试上线、运维迭代✅面试求职冲刺—岗位JD解析、简历AI项目包装、高频面试题汇总、模拟面经以上6大模块看似清晰好上手实则每个部分都有扎实的核心内容需要吃透我把大模型的学习全流程已经整理好了抓住AI时代风口轻松解锁职业新可能希望大家都能把握机遇实现薪资/职业跃迁这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】