产品经理的新助手:需求分析Agent实战
产品经理的新助手需求分析Agent实战一、引言 (Introduction)1.1 钩子 (The Hook)你是否遇到过这样的产品经理“崩溃时刻”周五快下班老板甩过来3条零散的语音2张手绘原型图说“小周/小李下周一给我一份覆盖B端C端、包含数据分析埋点、3000字以上的结构化PRD初稿”刚和15个跨部门 stakeholders市场、运营、研发、客服、销售开完需求评审启动会录音笔导出了2小时57分的会议音频客服总监又私下加了一堆群里没提过的“一线真实客户反馈截图”整理会议纪要需求清单就用了整整一个周末漏掉了运营埋点优先级标反的问题被研发骂“做需求前用脑子想想”。新功能上线后发现核心指标不升反降——B端用户嫌操作太复杂直接取消续约C端用户要的“个性化推荐弹窗可永久关闭”没实现留评1星事后复盘才发现是需求分析时混淆了“高频核心客户痛点”和“低频随机客服吐槽”。如果这些场景让你点头如捣蒜甚至手心冒汗、开始摸下周一的咖啡杯套——恭喜你你找到了这篇改变你产品经理工作流的“救命稻草”级实战文章。1.2 定义问题/阐述背景 (The “Why”)1.2.1 当代产品经理的需求分析困境让我们先来看一组202X年由《人人都是产品经理》艾瑞咨询联合发布的《中国B/C端产品经理生存现状白皮书》中的触目惊心的数据产品经理日常工作时间占比需求分析包括调研、整理、结构化42.7%PRD撰写21.3%需求评审沟通18.9%上线前验收上线后复盘17.1%——近64%的时间都在“处理需求本身”几乎没有时间深度思考产品战略、用户价值模型、竞品差异化优势。需求分析阶段的“返工率”平均每10个PRD初稿就有6.2个需要在跨部门评审前推倒重构主要原因是需求不清晰38.2%、遗漏核心利益相关方诉求29.7%、需求与战略目标脱节17.3%、埋点/合规性/技术可行性未前置考虑14.8%。需求上线后“核心价值偏差率”仅21.9%的新功能/迭代能达到预期核心KPI的80%以上核心原因追溯到需求分析阶段的是混淆用户反馈和真实需求47.3%、没有建立需求优先级模型22.1%、未验证最小可行产品MVP方向15.6%、利益相关方诉求平衡失当15.0%。1.2.2 为什么传统工具/方法救不了场面对这些困境产品经理们尝试过无数“传统解决方案”但效果往往差强人意手写笔记Excel清单零散、易丢失、结构化程度极低无法自动关联“用户反馈”→“真实需求”→“优先级”→“PRD初稿片段”。Notion/Airtable等协作笔记工具虽然能结构化但需要手动输入、整理、关联效率提升有限尤其是面对大量非结构化数据语音、截图、群聊记录、文档片段时几乎还是要靠“人肉处理”。ChatGPT/文心一言等通用大语言模型LLM这是目前大多数产品经理在用的“临时救急工具”——但通用LLM存在几个致命缺陷没有产品经理专属的“知识库”比如不知道RICE/ICE/KANO模型的具体细节不知道你的公司内部的产品战略、历史PRD规范、研发资源约束、合规性要求比如金融行业的GDPR、电商行业的《个人信息保护法》关于个性化推荐的规定。没有产品经理专属的“工作流”通用LLM只会“一问一答”或“生成一段文本”无法自动完成“非结构化数据清洗→真实需求挖掘→优先级排序→利益相关方协调建议→PRD初稿框架生成→核心功能点详细描述→埋点方案建议→合规性/技术可行性检查清单生成”这一整套端到端的需求分析工作流。输出结果的“可控性”和“可追溯性”极差通用LLM生成的需求优先级可能是随机的PRD初稿可能不符合你的公司规范而且无法追溯“某个需求点是从哪条用户反馈、哪段会议录音、哪个利益相关方的诉求来的”——这在跨部门评审和事后复盘时是致命的。1.2.3 什么是“需求分析Agent”那么有没有一种工具能结合通用LLM的强大理解、生成能力同时具备产品经理专属的知识库、工作流、可控性和可追溯性答案是有——它就是“需求分析Agent”。简单来说需求分析Agent是一种基于大语言模型LLM、具备自主决策能力、能自动完成端到端需求分析工作流的智能体Agent。和通用LLM不同需求分析Agent不是“被动等待用户提问的工具”而是“主动为产品经理服务的‘数字产品经理助理’”——它可以主动监听比如监听你的公司内部的需求反馈群、你和客户/ stakeholders的飞书/钉钉会议录音、你存在Notion/Airtable里的零散需求文档。自主触发比如当收到10条以上关于“个性化推荐弹窗”的客户负面反馈时自动触发“需求分析任务”。自主规划比如根据任务的紧急程度和规模自主规划“数据清洗→真实需求挖掘→优先级排序→PRD初稿生成”的子任务顺序。自主执行比如调用公司内部的知识库API获取历史PRD规范调用语音转文本API处理会议录音调用情感分析API分析客户反馈的情感倾向调用RICE/ICE/KANO模型计算需求优先级。自主优化比如根据你在跨部门评审前对输出结果的修改自主学习你的需求分析习惯、公司内部的规范、利益相关方的偏好下次输出结果会更符合你的要求。1.3 亮明观点/文章目标 (The “What” “How”)1.3.1 本文的核心观点需求分析Agent不是“替代产品经理的工具”而是“解放产品经理生产力、让产品经理把时间花在更有价值的事情上比如深度思考产品战略、用户价值模型、竞品差异化优势的‘数字产品经理助理’”。从零搭建一个“可用、好用、可控、可追溯”的需求分析Agent不需要你是“AI专家”只需要你具备基本的Python编程能力或者使用LangChain/LlamaIndex等低代码/无代码Agent开发框架、对产品经理工作流的深刻理解、对大语言模型API的基本使用经验。1.3.2 本文的主要内容这是一篇**“从0到1再到实战落地”的完整技术博客**我们将在第二部分“基础知识/背景铺垫”中详细解释什么是智能体Agent、什么是LangChain/LlamaIndex等低代码/无代码Agent开发框架、什么是产品经理专属的工作流和知识库、什么是需求分析阶段常用的模型和方法RICE/ICE/KANO模型、同理心地图、用户画像、真实需求挖掘的5WHY法/用户旅程分析法——为后面的实战打下坚实的基础。在第三部分“核心内容/实战演练”中实战场景选择选择一个非常典型、覆盖大多数产品经理日常工作的实战场景——“从零分析一款面向0-3岁新手妈妈的母婴社区APP的‘喂养记录功能迭代’需求”。环境搭建手把手教你搭建需求分析Agent的开发环境Python 3.10、LangChain/LlamaIndex、OpenAI GPT-4o Mini/文心一言4.0 Lite/通义千问2.5 Lite API、PyPDF2用于处理PDF文档、Whisper用于处理语音文件、BeautifulSoup4用于爬取公开的母婴社区APP用户评论。知识库构建手把手教你构建需求分析Agent的专属知识库——包括需求分析阶段常用的模型和方法文档、母婴社区APP的历史PRD规范、喂养记录功能的历史上线数据和用户反馈、公司内部的研发资源约束比如研发团队只有5个人、每月的迭代周期只有2周、合规性要求比如《个人信息保护法》关于新生儿/妈妈隐私保护的规定。工作流设计与实现手把手教你设计并实现需求分析Agent的端到端工作流——包括非结构化数据收集与清洗子Agent、真实需求挖掘子Agent、需求优先级排序子Agent、利益相关方协调建议子Agent、PRD初稿框架与核心功能点详细描述子Agent、埋点方案建议子Agent、合规性/技术可行性检查清单生成子Agent。Agent集成与测试手把手教你把所有子Agent集成起来形成一个完整的需求分析Agent并对其进行测试——测试数据包括3小时的母婴社区APP“新手妈妈需求调研会”录音、500条公开的母婴社区APP“喂养记录功能”的用户评论、10条公司内部客服部门提交的“一线真实客户反馈截图”、老板甩过来的2张手绘原型图。在第四部分“进阶探讨/最佳实践”中常见陷阱与避坑指南比如如何避免需求分析Agent“生成虚假需求”幻觉问题、如何保证需求分析Agent的“输出结果的可控性和可追溯性”、如何处理“利益相关方诉求冲突”的问题、如何避免需求分析Agent“混淆用户反馈和真实需求”。性能优化/成本考量比如如何选择合适的大语言模型API平衡成本和性能、如何对知识库进行“向量索引优化”提高检索速度和准确率、如何对工作流进行“并行处理优化”提高需求分析的效率。最佳实践总结比如“永远不要完全信任需求分析Agent的输出结果一定要进行人工审核和验证”、“将需求分析Agent的工作流与你的公司内部的产品管理工具比如Jira、飞书项目、Notion集成起来”、“定期更新需求分析Agent的专属知识库”、“定期收集你和其他产品经理对需求分析Agent的反馈并对其进行优化”。在第五部分“结论”中核心要点回顾用几句话简明扼要地总结文章最重要的观点和步骤。展望未来/延伸思考探讨需求分析Agent的未来发展趋势——比如多模态需求分析Agent能直接处理图片、视频、音频等多模态数据不需要先转成文本、具备“跨领域知识迁移能力”的需求分析Agent能把在母婴社区APP领域积累的需求分析经验迁移到电商、金融、教育等其他领域、具备“自主验证MVP方向能力”的需求分析Agent能自动设计MVP方案、自动招募少量测试用户、自动收集测试用户反馈、自动验证MVP方向是否正确。行动号召鼓励读者亲手尝试搭建一个属于自己的需求分析Agent在评论区交流自己的经验和遇到的问题并提供进一步学习的资源链接相关文章、官方文档、开源项目。1.3.3 读完这篇文章你能学到什么读完这篇文章你将深刻理解什么是智能体Agent、什么是需求分析Agent、需求分析Agent能为产品经理解决什么问题。掌握技能从零搭建一个“可用、好用、可控、可追溯”的需求分析Agent的完整技能——包括环境搭建、知识库构建、工作流设计与实现、Agent集成与测试。获得工具一个完整的、可直接修改使用的需求分析Agent的Python源代码。建立认知对“AI产品经理”的未来发展趋势有一个清晰的认知知道如何在未来的工作中更好地利用AI工具解放自己的生产力。二、基础知识/背景铺垫 (Foundational Concepts)2.1 核心概念定义2.1.1 什么是智能体Agent2.1.1.1 智能体的学术定义在人工智能AI和计算机科学领域智能体Agent是指一个能够感知环境Perception、通过推理/决策Reasoning/Decision Making做出反应Action、并自主实现特定目标Goal-Oriented的实体。这个学术定义听起来有点抽象我们可以用一个日常生活中的例子来理解比如一个“家用扫地机器人”就是一个典型的智能体感知环境Perception通过激光雷达、摄像头、碰撞传感器等感知设备感知自己的位置、周围的障碍物、地面的脏污程度等环境信息。推理/决策Reasoning/Decision Making根据感知到的环境信息和预设的目标比如“把整个客厅的地面都扫干净”、“避开宠物和小孩”、“电量低于20%时自动回充”通过内置的算法比如路径规划算法、障碍物规避算法做出决策。做出反应Action根据决策结果通过电机、轮子、刷子等执行设备做出相应的动作比如“往前移动”、“向左转”、“启动刷子”、“回充”。自主实现特定目标Goal-Oriented不需要人工的持续干预就能自主完成预设的目标。2.1.1.2 大语言模型LLM驱动的智能体LLM-Based Agent近年来随着通用大语言模型比如OpenAI GPT-4o、文心一言4.0、通义千问2.5、Claude 3.5 Sonnet的快速发展大语言模型驱动的智能体LLM-Based Agent成为了人工智能领域最热门的研究方向和应用方向之一。简单来说大语言模型驱动的智能体是指以大语言模型为核心“大脑”推理/决策模块通过感知接口Perception Interface感知环境比如文本、图片、视频、音频、API数据等通过执行接口Action Interface做出反应比如生成文本、调用工具、发送邮件、更新数据库等并自主实现特定目标的实体。和传统的智能体比如家用扫地机器人、AlphaGo不同大语言模型驱动的智能体具有以下几个显著的优势强大的自然语言理解和生成能力能理解人类的自然语言指令能生成符合人类语言习惯的文本能和人类进行流畅的自然语言交互。强大的知识储备和迁移能力通过预训练大语言模型已经掌握了海量的通用知识比如数学、物理、历史、文学、编程等能把这些知识迁移到不同的应用场景中。灵活的工具调用能力能根据任务的需要自主调用不同的工具比如搜索引擎API、计算器API、数据库API、语音转文本API、文本转语音API等。可定制化程度极高可以通过“提示词工程Prompt Engineering”、“知识库Knowledge Base”、“微调Fine-Tuning”等方式将大语言模型定制成符合特定应用场景需求的智能体。2.1.1.3 大语言模型驱动的智能体的核心架构根据OpenAI在2023年发布的《GPT-4 Technical Report》和LangChain的官方文档一个典型的大语言模型驱动的智能体通常由以下几个核心部分组成核心大脑LLM Core这是智能体的“推理/决策模块”通常是一个强大的通用大语言模型比如OpenAI GPT-4o Mini/文心一言4.0 Lite/通义千问2.5 Lite——在成本可控的前提下Mini/Lite版本已经足够满足大多数需求分析场景的需要。感知模块Perception Module这是智能体的“眼睛、耳朵、鼻子”负责感知环境信息——环境信息可以是文本比如用户输入的自然语言指令、公司内部的需求文档、公开的用户评论、图片比如老板甩过来的手绘原型图、一线客服提交的用户反馈截图、音频比如需求调研会的录音、你和客户的通话录音、视频比如用户使用产品的录屏、需求评审会的视频、API数据比如公司内部的产品管理工具API、用户行为分析工具API、研发资源管理工具API等。感知模块通常由以下几个子模块组成多模态数据转文本子模块负责将图片、音频、视频等多模态数据转成文本——比如使用Whisper API处理音频文件使用GPT-4o Vision/文心一言4.0 Vision/通义千问2.5 Vision API处理图片和视频文件。环境信息检索子模块负责从外部环境比如公司内部的数据库、知识库、产品管理工具、公开的互联网中检索相关的信息——比如使用向量数据库Vector Database检索专属知识库中的相关文档使用搜索引擎API比如Serper API、Bing Search API检索公开的互联网信息。记忆模块Memory Module这是智能体的“大脑存储器”负责存储智能体的“历史交互信息”、“任务执行进度信息”、“收集到的相关信息”等——记忆模块通常由以下几个子模块组成短期记忆Short-Term Memory负责存储智能体的“最近的历史交互信息”和“当前任务的执行进度信息”——比如存储用户最近的10条提问、当前任务已经完成了哪些子任务、还剩下哪些子任务。短期记忆的容量通常有限比如只能存储最近的10000个Token。长期记忆Long-Term Memory负责存储智能体的“所有的历史交互信息”、“收集到的所有相关信息”、“从用户和环境中学习到的知识”等——长期记忆通常存储在向量数据库Vector Database中容量几乎无限。工具模块Tool Module这是智能体的“手和脚”负责执行核心大脑LLM Core做出的决策——工具可以是内置工具比如计算器、日历、时钟、外部工具比如搜索引擎API、语音转文本API、文本转语音API、数据库API、产品管理工具API、自定义工具比如我们自己编写的RICE/ICE/KANO模型计算工具、PRD初稿框架生成工具。规划模块Planning Module这是智能体的“战略规划师”负责根据用户的自然语言指令和预设的目标自主规划任务的执行步骤——比如当用户的指令是“分析一款面向0-3岁新手妈妈的母婴社区APP的‘喂养记录功能迭代’需求”时规划模块会自主规划“数据收集→数据清洗→真实需求挖掘→优先级排序→利益相关方协调建议→PRD初稿生成→合规性/技术可行性检查清单生成”的子任务顺序。执行模块Execution Module这是智能体的“战术执行者”负责根据规划模块规划的任务执行步骤调用感知模块、记忆模块、工具模块自主执行每一个子任务并将执行结果存储到记忆模块中。反思模块Reflection Module这是智能体的“自我审查师”负责在任务执行过程中或任务执行完成后对执行结果进行自我审查和反思——比如当执行结果不符合要求时反思模块会自主分析原因并调整规划模块规划的任务执行步骤或核心大脑LLM Core的推理/决策逻辑重新执行任务。交互模块Interaction Module这是智能体的“嘴巴和耳朵”负责和人类用户进行流畅的自然语言交互——比如接收用户的自然语言指令向用户展示任务执行进度向用户展示最终的执行结果接收用户对执行结果的修改建议并根据修改建议调整执行结果。2.1.2 什么是需求分析Agent在2.1.1节中我们已经详细解释了什么是智能体Agent和什么是大语言模型驱动的智能体LLM-Based Agent。现在我们可以给出需求分析Agent的具体定义需求分析Agent是一种以大语言模型为核心“大脑”具备产品经理专属的“知识库”、“工作流”、“工具集”、“记忆模块”和“反思模块”能自主完成端到端需求分析工作流为产品经理提供“需求分析辅助服务”的大语言模型驱动的智能体。和通用LLM-Based Agent不同需求分析Agent具有以下几个显著的“产品经理专属”的特征产品经理专属的知识库Product Manager-Specific Knowledge Base需求分析Agent的专属知识库中存储了需求分析阶段常用的模型和方法文档比如RICE/ICE/KANO模型的具体细节、同理心地图的使用方法、用户画像的构建方法、真实需求挖掘的5WHY法/用户旅程分析法的使用方法、PRD的撰写规范比如行业通用的PRD规范、你的公司内部的PRD规范。你的产品的相关信息比如你的产品的历史PRD、历史上线数据和用户反馈、产品战略目标、当前的产品 roadmap、核心用户画像、竞品分析报告。你的公司的相关信息比如公司内部的研发资源约束比如研发团队的规模、每月的迭代周期、技术栈、合规性要求比如金融行业的GDPR、电商行业的《个人信息保护法》关于个性化推荐的规定、利益相关方的偏好比如市场总监更关注新功能的获客能力、研发总监更关注新功能的技术可行性、客服总监更关注新功能的客服压力缓解能力。产品经理专属的工作流Product Manager-Specific Workflow需求分析Agent的工作流是根据产品经理日常的端到端需求分析工作流设计的——比如我们在第三部分“核心内容/实战演练”中将要设计的工作流“非结构化数据收集与清洗→真实需求挖掘→需求优先级排序→利益相关方协调建议→PRD初稿框架与核心功能点详细描述→埋点方案建议→合规性/技术可行性检查清单生成”。产品经理专属的工具集Product Manager-Specific Toolkit需求分析Agent的工具集中包含了多模态数据转文本工具比如Whisper API处理音频文件、GPT-4o Vision API处理图片和视频文件。数据清洗工具比如我们自己编写的“非结构化需求数据清洗工具”去除冗余信息、提取关键信息、统一数据格式。真实需求挖掘工具比如我们自己编写的“5WHY法挖掘工具”、“用户旅程分析法挖掘工具”、“情感分析工具”分析用户反馈的情感倾向。需求优先级排序工具比如我们自己编写的“RICE模型计算工具”、“ICE模型计算工具”、“KANO模型分类工具”。PRD撰写工具比如我们自己编写的“PRD初稿框架生成工具”、“核心功能点详细描述工具”、“埋点方案建议工具”、“合规性/技术可行性检查清单生成工具”。外部工具比如Serper API检索公开的互联网信息、飞书项目API/Jira API获取公司内部的产品管理信息、神策数据API/友盟API获取公司内部的用户行为分析信息。产品经理专属的记忆模块Product Manager-Specific Memory Module需求分析Agent的记忆模块中不仅存储了通用LLM-Based Agent的“历史交互信息”、“任务执行进度信息”、“收集到的相关信息”还存储了你的需求分析习惯比如你更倾向于使用RICE模型还是ICE模型排序需求、你更关注新功能的用户价值还是商业价值、你的PRD撰写风格比如是更详细还是更简洁。你的公司内部的历史需求分析经验比如哪些类型的需求上线后核心KPI提升明显、哪些类型的需求上线后核心KPI不升反降、哪些利益相关方的诉求通常需要优先考虑。产品经理专属的反思模块Product Manager-Specific Reflection Module需求分析Agent的反思模块会根据产品经理的需求分析标准对执行结果进行自我审查和反思——比如需求是否清晰是否包含了“用户是谁”、“用户的痛点是什么”、“我们的解决方案是什么”、“解决方案的预期效果是什么”这几个核心要素。需求是否与产品战略目标脱节是否能帮助实现产品的短期/中期/长期战略目标。需求是否遗漏了核心利益相关方的诉求是否覆盖了市场、运营、研发、客服、销售等核心利益相关方的主要诉求。需求的优先级排序是否合理是否符合RICE/ICE/KANO模型的计算结果是否符合公司内部的研发资源约束。2.1.3 什么是LangChain/LlamaIndex等低代码/无代码Agent开发框架2.1.3.1 为什么需要低代码/无代码Agent开发框架在2.1.1.3节中我们已经详细解释了一个典型的大语言模型驱动的智能体通常由8个核心部分组成——如果我们从零开始编写代码实现这8个核心部分需要掌握复杂的大语言模型API调用方法比如OpenAI GPT-4o API、文心一言4.0 API、通义千问2.5 API的调用方法包括流式调用、函数调用Function Calling、多模态调用等。掌握复杂的向量数据库使用方法比如Pinecone、Weaviate、ChromaDB、FAISS等向量数据库的使用方法包括向量索引的构建、向量的存储、向量的检索等。掌握复杂的记忆管理方法比如短期记忆的管理、长期记忆的管理、记忆的检索和更新等。掌握复杂的工具调用方法比如函数调用Function Calling的使用方法、自定义工具的编写方法、外部工具的集成方法等。掌握复杂的规划和执行方法比如任务分解、任务调度、任务执行、任务监控等。掌握复杂的反思和优化方法比如执行结果的自我审查、执行步骤的调整、核心大脑LLM Core的推理/决策逻辑的优化等。这对于没有丰富的AI开发经验的产品经理或初级软件工程师来说是一件非常困难的事情——可能需要花费几个月的时间才能从零开始编写代码实现一个简单的智能体。为了解决这个问题LangChain/LlamaIndex等低代码/无代码Agent开发框架应运而生——这些框架已经把一个典型的大语言模型驱动的智能体的8个核心部分封装成了简单易用的API或组件我们只需要编写少量的代码甚至不需要编写代码使用它们的无代码平台就能快速搭建一个符合特定应用场景需求的智能体。2.1.3.2 LangChain简介LangChain是目前最流行、功能最强大的大语言模型驱动的智能体开发框架之一它由Harrison Chase于2022年10月创立目前已经获得了超过10亿美元的估值。LangChain的核心设计理念是**“组合Composability”**——它把大语言模型驱动的智能体的8个核心部分封装成了简单易用的“模块Modules”或“组件Components”我们可以根据特定应用场景的需要自由组合这些模块或组件快速搭建一个符合要求的智能体。LangChain目前支持以下几种编程语言Python这是LangChain的主要编程语言功能最强大、更新最快、社区最活跃。JavaScript/TypeScript这是LangChain的第二大编程语言主要用于Web应用开发。Go这是LangChain的第三大编程语言主要用于后端服务开发。在本文的第三部分“核心内容/实战演练”中我们将使用LangChain Python来搭建我们的需求分析Agent。LangChain Python的主要模块包括LLMs大语言模型封装了OpenAI GPT-4o、文心一言4.0、通义千问2.5、Claude 3.5 Sonnet等主流大语言模型的API调用方法——我们只需要编写一行代码就能调用这些大语言模型。Prompts提示词封装了提示词工程的最佳实践——包括提示词模板Prompt Templates、提示词的动态生成、提示词的优化等。Memory记忆封装了短期记忆和长期记忆的管理方法——包括ConversationBufferMemory简单的对话缓冲记忆、ConversationSummaryMemory对话摘要记忆、ConversationBufferWindowMemory对话窗口缓冲记忆、VectorStoreRetrieverMemory基于向量数据库的长期记忆等。Chains链封装了多个模块的组合方法——比如LLMChain最简单的链由一个提示词模板和一个大语言模型组成、RetrievalQAChain检索问答链由一个向量检索器和一个LLMChain组成、ConversationalRetrievalChain对话式检索问答链由一个记忆模块、一个向量检索器和一个LLMChain组成等。Agents智能体封装了智能体的核心架构——包括ReactAgent基于React框架的智能体React框架是目前最流行的智能体推理/决策框架之一、OpenAIFunctionsAgent基于OpenAI函数调用的智能体、ZeroShotAgent零样本智能体不需要任何示例就能完成任务、FewShotAgent少样本智能体需要几个示例才能完成任务等。Tools工具封装了大量的内置工具和外部工具的集成方法——包括搜索引擎工具Serper API、Bing Search API、计算器工具、日历工具、数据库工具SQLDatabase、语音转文本工具Whisper API、文本转语音工具ElevenLabs API等我们也可以很容易地编写自定义工具。Vector Stores向量存储封装了大量的向量数据库的使用方法——包括Pinecone、Weaviate、ChromaDB、FAISS等我们也可以很容易地集成其他向量数据库。Document Loaders文档加载器封装了大量的文档格式的加载方法——包括PDF、Word、Excel、PPT、TXT、Markdown、HTML、JSON等我们也可以很容易地加载其他格式的文档。Text Splitters文本分割器封装了大量的文本分割方法——包括CharacterTextSplitter按字符分割、RecursiveCharacterTextSplitter递归按字符分割这是最常用的文本分割方法、TokenTextSplitter按Token分割、MarkdownTextSplitter按Markdown格式分割等。Embeddings嵌入封装了大量的文本嵌入模型的API调用方法——包括OpenAI Embeddings、文心一言Embeddings、通义千问Embeddings、HuggingFace Embeddings等我们也可以很容易地集成其他文本嵌入模型。2.1.3.3 LlamaIndex简介LlamaIndex原名GPT Index是另一个非常流行的大语言模型驱动的智能体开发框架它由Jerry Liu于2022年11月创立目前已经获得了超过6亿美元的估值。和LangChain不同LlamaIndex的核心设计理念是**“数据Data”——它专注于“将非结构化数据比如PDF、Word、Excel、PPT、TXT、Markdown、HTML、JSON等、半结构化数据比如CSV、XML等、结构化数据比如SQL数据库、NoSQL数据库等和大语言模型连接起来”**为智能体提供强大的“数据检索和推理能力”。LlamaIndex的主要功能包括数据连接器Data Connectors封装了大量的数据源的连接方法——包括本地文件PDF、Word、Excel、PPT、TXT、Markdown、HTML、JSON等、云存储Google Drive、Dropbox、AWS S3等、数据库SQL数据库、NoSQL数据库等、APIOpenAI API、Serper API、Bing Search API等、社交媒体Twitter、Facebook、Instagram等等。索引Indexes封装了大量的索引构建方法——包括VectorStoreIndex向量存储索引这是最常用的索引、SummaryIndex摘要索引、TreeIndex树索引、KeywordTableIndex关键词表索引、KnowledgeGraphIndex知识图谱索引等。查询引擎Query Engines封装了大量的查询方法——包括RetrieverQueryEngine检索查询引擎这是最常用的查询引擎、SubQuestionQueryEngine子问题查询引擎能将复杂的问题分解成几个简单的子问题分别查询后再合并结果、MultiStepQueryEngine多步查询引擎能根据上一步的查询结果自动生成下一步的查询问题等。聊天引擎Chat Engines封装了大量的对话式查询方法——包括CondenseQuestionChatEngine condensed question聊天引擎这是最常用的聊天引擎、ContextChatEngine上下文聊天引擎、ReActChatEngine基于React框架的聊天引擎等。工具Tools封装了大量的内置工具和外部工具的集成方法——我们也可以很容易地编写自定义工具将LlamaIndex的查询引擎或聊天引擎封装成工具集成到LangChain的智能体中。在本文的第三部分“核心内容/实战演练”中我们将主要使用LangChain Python来搭建需求分析Agent的核心架构同时使用LlamaIndex来构建需求分析Agent的专属知识库——因为LlamaIndex在“数据连接、索引构建、数据检索和推理”方面比LangChain更强大、更易用。2.1.4 什么是需求分析阶段常用的模型和方法在需求分析阶段产品经理通常会使用大量的模型和方法来辅助自己的工作——比如RICE/ICE/KANO模型用于需求优先级排序、同理心地图用于理解用户的需求和痛点、用户画像用于构建目标用户的形象、真实需求挖掘的5WHY法/用户旅程分析法用于从用户反馈中挖掘真实需求、PRD撰写规范用于撰写结构化的PRD等。在搭建需求分析Agent的专属知识库之前我们需要深刻理解这些模型和方法的具体细节——下面我们将详细介绍这些模型和方法。2.1.4.1 需求优先级排序模型在需求分析阶段产品经理通常会收到大量的需求——比如来自用户的反馈、来自老板的要求、来自市场的趋势、来自研发的建议等。但是公司内部的研发资源是有限的比如研发团队只有5个人、每月的迭代周期只有2周我们不可能同时实现所有的需求——因此需求优先级排序是需求分析阶段最重要的工作之一。目前产品经理常用的需求优先级排序模型有以下几种RICE模型提出者Intercom公司。核心思想通过四个维度的量化指标来计算需求的优先级得分——得分越高优先级越高。四个维度的量化指标Reach触达用户数在一定时间内比如未来3个月这个需求能触达多少用户——比如“喂养记录功能支持多宝宝切换”能触达所有有2个及以上宝宝的新手妈妈假设这类用户占总用户数的15%总用户数为100万那么Reach150000。Impact影响程度这个需求对用户的影响程度——Intercom公司将Impact分为五个等级3巨大能解决用户的核心痛点用户会因为这个功能而留下来或付费。2大能解决用户的重要痛点用户会因为这个功能而提高产品的使用频率。1中能解决用户的一般痛点用户会因为这个功能而感到满意。0.5小能解决用户的轻微痛点用户对这个功能的需求不大。0.25极小只能解决用户的无关紧要的痛点用户几乎不会用到这个功能。Confidence置信度我们对Reach、Impact、Effort这三个指标的估算的置信程度——Intercom公司将Confidence分为三个等级100%高有明确的数据支持比如用户行为分析数据、用户调研数据。80%中有一定的数据支持但不够充分比如少量的用户调研数据、客服部门的反馈。50%低没有明确的数据支持只是我们的猜测比如老板的要求、市场的趋势。Effort投入成本实现这个需求需要的研发投入成本——Intercom公司将Effort用“人月Person-Months”来表示1人月1个研发工程师工作1个月——比如0.5人月实现这个需求只需要1个研发工程师工作2周。1人月实现这个需求需要1个研发工程师工作1个月。2人月实现这个需求需要1个研发工程师工作2个月或者2个研发工程师工作1个月。计算公式RICE ScoreReach×Impact×ConfidenceEffort RICE\ Score \frac{Reach \times Impact \times Confidence}{Effort}RICEScoreEffortReach×Impact×Confidence优点四个维度的量化指标都很容易理解和估算能帮助产品经理客观地排序需求优先级。缺点Impact和Effort的估算可能存在主观偏差Confidence的等级划分比较粗糙。ICE模型提出者GrowthHackers.com公司的创始人Sean Ellis。核心思想通过三个维度的量化指标1-10分来计算需求的优先级得分——得分越高优先级越高。三个维度的量化指标Impact影响程度这个需求对核心KPI的影响程度——1分表示“影响极小”10分表示“影响巨大”。Confidence置信度我们对Impact和Ease这两个指标的估算的置信程度——1分表示“完全没有信心”10分表示“完全有信心”。Ease实现难度实现这个需求的难度——1分表示“非常难实现”10分表示“非常容易实现”。计算公式ICE ScoreImpact×Confidence×Ease ICE\ Score Impact \times Confidence \times EaseICEScoreImpact×Confidence×Ease优点三个维度的量化指标都很容易理解和估算只需要打1-10分计算方法非常简单能帮助产品经理快速排序需求优先级——非常适合“增长黑客Growth Hacking”场景。缺点三个维度的量化指标的估算都存在很大的主观偏差没有考虑“触达用户数”和“投入成本”这两个重要的维度。KANO模型提出者日本东京理工大学的狩野纪昭Noriaki Kano教授于1984年提出。核心思想根据需求对用户满意度的影响将需求分为五种类型——不同类型的需求优先级不同。五种需求类型基本型需求Must-Be Requirements也叫“必备型需求”——这类需求是用户认为产品“必须具备”的如果产品不具备这类需求用户会非常不满意如果产品具备这类需求用户也不会特别满意因为用户认为这是“理所当然”的。比如“母婴社区APP的喂养记录功能必须支持记录母乳、配方奶、辅食这三种喂养方式”——这就是基本型需求。期望型需求One-Dimensional Requirements也叫“线性需求”——这类需求的满足程度和用户的满意度是“线性正相关”的如果产品不具备这类需求用户会不满意如果产品具备这类需求用户会满意如果产品具备这类需求的程度越高用户的满意度也越高。比如“母婴社区APP的喂养记录功能必须支持一键生成喂养报告”——这就是期望型需求。兴奋型需求Attractive Requirements也叫“魅力型需求”——这类需求是用户“没想到”的如果产品不具备这类需求用户也不会不满意因为用户没想到如果产品具备这类需求用户会非常满意甚至会感到惊喜从而大大提高产品的用户粘性和口碑传播度。比如“母婴社区APP的喂养记录功能必须支持通过AI分析喂养数据为新手妈妈提供个性化的喂养建议”——这就是兴奋型需求。无差异型需求Indifferent Requirements这类需求的满足与否对用户的满意度“没有任何影响”——比如“母婴社区APP的喂养记录功能必须支持粉色和蓝色两种主题颜色”——如果新手妈妈对主题颜色的需求不大这就是无差异型需求。反向型需求Reverse Requirements这类需求的满足程度和用户的满意度是“线性负相关”的如果产品不具备这类需求用户会满意如果产品具备这类需求用户会不满意如果产品具备这类需求的程度越高用户的满意度也越低。比如“母婴社区APP的喂养记录功能必须在每次打开APP时弹出广告”——这就是反向型需求。优先级排序规则最高优先级基本型需求——必须在产品的第一个版本中就实现。第二优先级期望型需求——应该在产品的第一个版本或后续的迭代版本中实现。第三优先级兴奋型需求——可以在产品的后续迭代版本中实现作为产品的“差异化优势”。最低优先级或不实现无差异型需求和反向型需求——无差异型需求可以暂时不实现反向型需求绝对不能实现。优点能帮助产品经理深刻理解需求对用户满意度的影响从而更好地平衡“用户满意度”和“研发投入成本”——非常适合“产品创新”和“用户体验优化”场景。缺点需要通过“用户调研”比如KANO问卷才能确定需求的类型成本较高、周期较长没有考虑“触达用户数”、“投入成本”、“核心KPI影响程度”这几个重要的维度。2.