人工智能实战:大模型隐私脱敏怎么做?从日志泄露风险到输入、上下文、输出、训练数据全链路治理一、问题场景:模型没出错,但日志里存了一堆敏感信息大模型系统上线后,很多团队会记录日志:用户问题 检索结果 最终 Prompt 模型回答 工具调用参数这样方便排查问题。但很快会出现一个严重风险:日志里可能保存了大量敏感信息。例如用户输入:我是张三,身份证号 110101199001011234,手机号 13800138000,帮我查一下合同。如果系统直接记录完整 query、prompt、answer,就会把敏感信息写入:1. 应用日志 2. Trace 系统 3. Badcase 系统 4. 评测集 5. 训练数据候选池更危险的是,RAG 检索上下文可能包含:客户合同 员工信息 财务数据 订单地址 医疗内容本文解决的问题是:如何设