他们的目标是啥是去对标OpenAI去搞出下一个版本的GPT去提升模型的基座能力。这种职业方向说实话就是神仙打架。别说实习了社招都卷得厉害。没几篇顶会NeurIPS, ICML, ICLR, ACL这些傍身简历关都很难过。他们需要的是能推动模型能力边界的人。但还有一种也是现在需求量更大、更普遍的就是“业务算法岗”或者叫“应用算法岗”。这种职业方向是干嘛的他们不负责从0到1去炼丹而是负责把公司买来的、或者自研的基座模型想办法用在具体的业务场景里产生价值。例如用LLM去优化搜索结果、改造推荐feeds流、做智能客服、搞代码生成工具、赋能内容创作等等。我见过一个例子去年有个硕二同学本科双非硕士985之前只有一篇跟图像生成相关的二作文章跟LLM纯文本没关系他在求职面试时重点聊了两件事第一他参与学校的一个后模型训练领域Fine-tuning项目公开数据企业部分私有数据帮一个小公司做了客服场景的 LLaMA 二次调优第二他自己搭了个小规模的 RAG pipeline把法条知识嵌进去给法律咨询用。结果是他收到了两家大厂的LLM应用算法实习 offer虽然公司内部顶尖基础模型组他进不去但落到业务层的LLM团队完全没问题。这就是典型的“不靠论文靠项目能打”路径。LLM业务岗要看你打算切哪个层模型研发层模型结构、模型训练算法创新——这对标大厂研究部门或者 Lab拼的就是顶会论文、研究经历、开源贡献。没有论文很难硬刚有也得是对口的。模型应用/后模型训练层SFT、RLHF、RAG、embedding 优化——更多是业务落地考察的是你理解数据分布、能优化推理效果、能快速构建可用方案的能力。论文不是刚需但项目经历要很实而且最好贴近业务场景。对于这种业务岗老板看重的是什么他看重的不是你发表了一篇论文证明了一个新的网络结构能把某个榜单刷高0.5个点他看重的是你解决问题的能力和工程实现能力。这块我插一句现实中的“坑”很多同学觉得自己做了个 RAG demo 就够了但在业务里demo 跟能线上的东西差距很大例如你能不能搞定数据清洗、能否兼容现有调用链、qps 到 1000 怎么保证延迟、embedding 召回的 recall/precision tradeoff 怎么调。这些如果你求职面试能聊到细节甚至说点你踩坑的经历例如自己在 Milvus 上做向量库遇到内存暴涨的问题怎么解决求职面试官是能感知到你真的干过的。我这么说可能有点干给你举个我们业务上实实在在的例子。去年我们想用LLM改造一个内部的运营知识图谱库简单说就是做一个问答机器人让运营同学能快速找到他们想要的各种规则和文档。这事儿听起来不就是个RAG嘛很简单对吧但真做起来坑就多了。一个实习候选人来了简历上写着做过RAG项目。我就问他“你那个项目文档是怎么切片的按固定长度切还是按章节或者标题来切固定长度切的话会不会把一个完整的意思给切断了导致召回的时候信息不全”“你的embedding模型是怎么选的用通用的M3E还是用针对中文场景的BGE有没有试过在我们的业务数据上对embedding模型进行Fine-tuning提升它对我们这些黑话的理解能力”“召回出来的top-K个文档你是直接塞给LLM做总结还是先用一个rerank模型排个序把最相关的放前面如果召回回来的内容有冲突LLM胡说八道了怎么办”你看这些问题没有一个需要你发一篇顶会论文来证明。但每一个问题都对应着一个具体的工程和策略选择。你需要的是动手能力、分析能力和那么一点点产品sense。你能把你做过的项目像上面这样把遇到的问题、你的尝试、你的思考、最后的效果给说明白了这比你简历上挂一个不相关的论文要有说服力得多。你的项目经历就是你最好的“论文”。你说你在做后模型训练、RAG相关的项目这相当好路子完全走对了。关键在于你要把这个项目做“深”做出“花”来。别只是停留在跑通一个开源demo的层面。你要能说清楚业务背景你这个项目是为了解决什么问题哪怕是自己虚拟的场景技术方案为什么选这个方案例如为什么用RAG而不用Fine-tuning实现细节遇到了哪些坑怎么解决的例如上面我提的那些RAG的细节问题评估和迭代你怎么评估你的效果是人工评估还是建了个评测集后面还打算怎么优化把这些想清楚整理好写在简历上准备在求职面试里。这套组合拳打出来求职面试官会觉得你是个有想法、能落地的同学而不是一个只会看论文的“理论派”。至于你问要不要转去搜广推作为保底。我觉得能两手抓更保险。这俩根本不矛盾甚至可以说是相辅相成。你现在学的这些LLM知识尤其是RAG跟你去搞搜索简直是无缝衔接。RAG的关键是啥Retrieve Generate。那个Retrieve召回环节不就是个小型搜索引擎吗你要考虑怎么建索引怎么做向量召回怎么提高召回率和精确率。这些知识在搜推广领域全都是通用的。我甚至觉得一个优秀的RAG系统技术人他首先得是一个合格的搜索技术人。现在很多推荐系统也在尝试用LLM来做“用户兴趣建模”。以前我们是用一个复杂的Deep Learning模型例如DIN, DIEN去猜用户可能喜欢什么商品现在是直接把用户的行为序列点了啥、买了啥当成一种“语言”扔给LLM让LLM去“理解”这个用户的品味和意图。这听起来很高大上吧但底层的很多思想例如序列建模、attention机制实际上跟传统推荐模型是一脉相承的。因此你完全可以两条腿走路。一个比较现实的顺序是1、暑期/秋招前把后模型训练、RAG 项目收拾成可讲的 business case。别光有代码截图最好有明确的指标变化数据例如“instruction-tuning 后 Rouge 提升 4.2 个点”“RAG pipeline 答案覆盖率多了 12%”。2、并行刷搜广推的基础题尤其是常见数据结构和简单排序模型哪怕是梯度下降调参这类常规题由于有些求职面试官就是不问 LLM直接上 CTR 题。3、去找实习时不要自限于职位名称很多 JD 虽然写“推荐算法”但实际项目里会接触到 LLM例如 query 重写、个性化文案生成等混合场景。研一升研二时间还相当充裕。你现在的方向很对继续把项目做深做透同时拓展一下搜推广的知识面明年找实习问题不大。现在大部分公司的LLM业务岗说白了干的还是SFT和RAG那点事顶多加个Agent真正需要你从头造轮子的地方很少。他们更需要能把轮子装到车上让车跑起来的人。先说个结论LLM业务算法岗现在不一定非得有对口论文但背景和成果匹配度会影响你拿到求职面试的概率。论文是加分不是门票。尤其在企业侧尤其是业务落地的LLM算法不是做基础模型架构研究的那帮团队对口论文的硬性要求没你想象的那么严。但要注意一旦你是冲基础模型研发组、AGI研究组那种方向那没论文确实很吃亏甚至 HR 默认筛掉。现在大厂里的LLM职业方向实际上已经分化得很厉害了。你得先分清楚你想去的是哪种。一种是“研究岗”或者叫“预模型训练岗”这种职业方向基本都在研究院或者一些关键的基础模型团队。2026年大模型已经无处不在但幻觉hallucination仍是企业落地的最大杀手金融风控、医疗问诊、客服机器人动辄编造事实直接导致合规风险和信任崩盘。知识图谱Knowledge Graph的核心价值正是结构化知识把碎片化数据变成实体-关系-属性的三元组网络让大模型先查图谱再回答。行业价值支持复杂多跳推理、知识溯源、实时更新广泛用于推荐系统、智能搜索、企业大脑。大模型痛点纯向量RAG召回率低、无法处理逻辑关系知识图谱大模型GraphRAG可将准确率提升40%以上。图谱赋能意义把大模型从概率生成器变成可信知识引擎真正实现企业级私有化落地。核心知识点知识图谱不是又一个数据库而是大模型的长期记忆和推理大脑。为方便大家学习 这里给大家整理了一份学习资料包 需要的同学 根据下图自取即可