标题Hierarchical Chain-of-Thought Prompting: Enhancing LLM Reasoning Performance and Efficiency来源arXiv, 2604.00130v1摘要思想链Chain-of-ThoughtCoT提示显著提高了大型语言模型Large Language ModelLLM的推理能力。然而传统的CoT往往依赖于非结构化、扁平化的推理链存在冗余和性能不佳的问题。在这项工作中我们引入了层次化思想链Hi-CoT提示这是一种结构化的推理范式专门用于解决复杂、复杂的语言模型的问题多步推理。Hi-CoT通过在教学规划和逐步执行之间交替将推理过程分解为分层子步骤。这种分解使LLM能够更好地管理长期推理范围并保持逻辑一致性。对不同LLM和数学推理基准的广泛评估表明Hi-CoT始终将平均准确率提高6.2%在某些模型和任务上高达61.4%同时与CoT提示相比推理轨迹长度减少了13.9%。我们进一步表明当模型严格遵守分层结构时准确性和效率最大化。️文章简介研究问题如何解决传统思维链提示中因缺乏结构导致的推理冗余、逻辑漂移及效率低下问题主要贡献论文提出分层思维链Hi-CoT提示框架通过交替的指令规划与执行步骤在显著提升大模型推理准确率的同时大幅减少生成长度。重点思路将推理过程重构为交替出现的“指令步”与“执行步”序列其中指令步负责基于当前状态制定下一步具体目标执行步负责落实该目标。引入压缩瓶颈机制强制模型在执行前将复杂的推理状态蒸馏为简洁的指令从而过滤低信息量内容并防止逻辑偏离。采用动态分层策略不预设固定步骤数而是让模型根据问题复杂度自适应地生成多轮规划与执行循环实现细粒度控制。无需微调模型参数或增加额外代理仅通过零样本提示工程即可在推理阶段实施适用于多种架构的大语言模型。分析总结在 13 种不同规模模型及 5 个数学基准测试中Hi-CoT 平均准确率提升 6.2%最高增幅达 61.4%且表现优于传统思维链及计划求解方法。该方法平均减少了 13.9% 的推理 token 数量证明结构化推理能有效消除冗余步骤在提升精度的同时降低了计算成本。实验发现当模型严格遵循分层格式时在 AMC 和 MATH500 等任务上准确率可达 100%且推理长度可进一步缩减高达 75%。小模型从该方法中获益尤为明显表明分层结构能作为外部支架弥补小模型内在推理能力的不足且效果不依赖于模型参数量级。个人观点论文核心是react的交替指令与执行模式并通过强制性的格式约束构建了信息压缩瓶颈解决了长程推理中的噪声累积问题。附录