大模型应用质量的评测与自提升
Freepik

大模型应用质量的评测与自提升
/
Tyde

2025-07-11
#技术#思维
大模型应用正在从被动评测转向主动诊断,结合语境工程与内在对齐,共同驱动应用质量持续自提升

大型语言模型应用的开发中,很多人内心可能有一个评测悖论:一方面,为确保模型可靠性、安全性和有效性,评测(Eval)正成为学术界和工业界不可或缺的一环;但另一方面,或许会认为当前主流的评测范式本质上是一种“权宜之计”,一种在模型能力尚不完全可控、其内部机理仍是“黑箱”时,不得已而为之的外部质量监控手段。

你是否也认为当前的评测只是暂时?会随着日益成熟的开发技术(如语境工程)和评测问题模式的同质化而式微?不妨看看我们下面的分析:

评测正从被动、后置、单一维度评分,演变为一种主动、持续、并深度集成于LLM应用全生命周期的诊断。但语境工程(Context Engineering)和内在对齐(Intrinsic Alignment)并非是评测的替代,而是驱动其形态变革的核心催化剂。


1. 评测:优势、困境与黄金标准

为了对LLM评估,首先要选择合适的基准和方法。目前,业界已经形成了一套多层次的评测体系,旨在从不同维度衡量模型的能力与缺陷。

通用能力基准,如MMLU(大规模多任务语言理解),旨在评估模型在广泛学科领域的知识和解决问题的能力。与此同时,大量专业化基准涌现,用于衡量特定能力,例如,HumanEval专注于代码生成,MT-Bench评估对话能力,而一系列针对推理的基准如FrontierMath、JustLogic和Proof-or-Bluff则深入测试模型在数学、逻辑等领域的严谨推理能力

尽管评测方法多样,但大多数自动化基准都构建在一个看似坚实、实则脆弱的基础之上:每个问题都存在一个唯一的正确答案。这一“黄金标签”(Gold Label)假设是当前评测范式最核心的缺陷,它直接导致我们对模型能力的认知产生系统性偏差,从而在“任务不确定性”(Task Indeterminacy)面前彻底失效。任务不确定性源于:

  • 模糊性(Ambiguity),即任务指令允许多种合理的解释;
  • 含糊性(Vagueness),即判定界限不清。

除了黄金标签谬误,当前评测范式的另一个根本性弱点在于其结果的脆弱性。一个模型的评测分数并非其固有的、稳定的属性,而是高度依赖于评测本身所处的语境,尤其是提示工程(Prompt Engineering)的设计。

整个评测流程,从基准选择、模型选择,到提示设计(零样本或少样本)和解码参数的设置,都充满了可变因素。每一个环节的微小调整都可能显著影响最终的评测分数。这揭示了一个关键事实:我们评估的并非一个孤立的模型,而是一个由“模型+提示+参数”构成的系统。因此,将一个在特定评测配置下获得的分数,泛化为模型普适能力的标签,是极具误导性的。

2. 主动范式转变:语境工程与内在接地

随着开发技术的成熟,LLM应用的开发者们正从被动地测试失败,转向主动地设计能够预防失败的系统。这一转变的核心在于语境工程(Context Engineering)的兴起。

2.1 从提示到工程:语境的规范化

在LLM应用早期,与模型交互更像是一门艺术或魔法,依赖开发者零散的、经验性的提示工程(Prompt Engineering)。随着应用复杂化,这一领域正迅速向更系统、更规范的语境工程演进。

尽管“提示”和“语境”两个词可以互换使用,但关键区别正日益清晰:提示(Prompt)指代用户发出的即时指令;而语境(Context)指代在生成响应前被输入到模型中的整个动态文本块(blob of text),包括对话历史、通过RAG系统检索到的外部数据、可用的工具定义以及其他结构化信息。语境工程的核心,正是对这个庞大输入进行程序化的、动态的构建与管理。

2.2 语境的现实与局限

理论上的架构优势必须经受实践的检验。来自一线开发者的经验为语境工程提供了一份宝贵的“现实核查清单”,揭示了其在当前技术水平下的局限性。

  • “迷失在中间”(Lost in the Middle)问题:从业者发现,尽管模型宣称拥有百万级别的超长语境窗口,但在实际应用中,其有效的准确率和召回能力往往局限于前1万个token左右,尤其是前1000个token最为关键。这意味着,最重要的指令,如解析规则或核心任务描述,必须被放置在语境的开头(有时为了保险起见,还会在末尾重复)。这揭示了模型处理长语境时注意力分布不均的内在缺陷。
  • 代理式分解(Agentic Decomposition):对于复杂的、多步骤的任务,最佳实践并非是构建一个拥有庞大、臃肿语境的单一代理(Agent),而是将问题分解为多个拥有不同工具集和更小、更专注语境的子代理。然后由一个上层的规划代理(Planning Agent)负责协调和任务交接。这本身就是一种为了规避模型内在语境处理局限而演化出的高级架构模式。

从这些实践中可以提炼出一个关键的观点:语境工程可以被重新理解为一种“前置性评测”(Pre-emptive Evaluation)。我们已知LLM存在一些可预测的失败模式,如产生幻觉或无法有效回忆长语境中的信息。像RAG或代理式分解这样的语境工程技术,其设计初衷并非是普适地提升模型能力,而是作为一种靶向干预,在LLM生成响应之前就主动规避这些已知的失败路径。例如,RAG系统不是在事后评测输出的真实性,而是在事前就通过检索可信来源来前置性地确保其真实性。代理式分解不是在事后评测一个冗长复杂输出的逻辑连贯性,而是事前就将任务分解为多个更小、更易于验证的步骤。系统的架构本身,在将问题交给那个充满概率性的LLM之前,就已经完成了一次结构性的审查。这将质量控制的重心,从后置的测试,转移到了前置的设计。

然而,这种转变也带来了新的复杂性。一个简单的LLM应用,其主要评测对象是LLM的响应。但一个RAG系统,至少有两个评测对象:检索器(Retriever)和生成器(Generator)。研究表明,评测RAG系统是复杂的,需要同时考量检索准确率和响应质量的指标 15。而一个更复杂的代理系统,则拥有更多的潜在故障点:规划器、多个子代理、各种工具以及语境管理逻辑本身 10。因此,那些旨在提升质量的技术(语境工程),同时也创造了一个更复杂、拥有更多潜在失效模式的系统。这意味着,虽然语境工程降低了 LLM概率性错误(如简单幻觉)的风险,但却增加了系统工程性错误(如检索器故障或代理交接失误)的风险。这直接反驳了“更好的开发技术将消除评测需求”的简单看法。恰恰相反,它要求一种更复杂的、系统级的评测范式,而这正是第四部分将要探讨的核心。

3. 质量内化:自对齐与自修正

为了让大模型(LLM)的输出不仅强大,而且可靠、对齐人类价值观,业界探索了两条核心路径:训练时对齐与推理时修正。这两种方法都旨在将“质量”内化为模型自身的能力。

  • 通过“对齐”技术塑造模型:对齐(Alignment)是塑造模型行为模式的基石,其目标是在训练阶段就让模型“天生向善”。其核心技术是基于人类反馈的强化学习(RLHF)。它的原理是收集人类对模型不同输出的偏好数据,将这些偏好转化为奖励信号,再通过强化学习对模型进行微调。整个过程旨在让模型遵循“有用、无害、诚实”(Helpful, Harmless, Honest, HHH)的核心原则。
  • 赋予模型“自我修正”的能力:除了在训练阶段进行内化,另一个热门方向是在推理(生成)阶段赋予模型“自我修正”(Self-Correction)的能力。这个过程可以被抽象为一个“生成-批判-再生成”的循环:模型首先生成一个初步答案,然后通过特定的提示词引导,对自己的答案进行反思、批判,最后生成一个改进后的版本。这一理念催生了多种具体的技术实现。例如,Self-Refine方法引导模型像人类写作一样,先生成草稿,再逐步迭代优化;而Chain-of-Verification (CoVe)则让模型生成一系列验证性问题来审视自己的初步答案,再综合回答这些问题来形成最终输出。类似地,Cumulative Reasoning (CR)将复杂问题分解为多个步骤,在每一步都进行评估和修正,以确保最终结论的可靠性。

尽管自修正的概念极具吸引力,但当它在完全依赖自身知识、没有任何外部信息(如事实核查工具或代码解释器)辅助的模式下运行时,其致命弱点便暴露无遗。在这种被称为内在自修正(Intrinsic Self-Correction)的场景下,研究一致表明,这种“闭门造车”式的修正不仅效果不佳,甚至常常适得其反。由于缺乏外部事实的锚定,模型的修正过程无异于在自身的知识“回音室”里打转,其性能甚至可能在修正后反而下降。

更令人担忧的是,这个过程会引入全新的失败模式。模型可能会在正确与错误的答案之间“摇摆不定”,最终因缺乏自信而将正确的答案改成错误的。这种内部的反复思量还会催生出类似人类的认知偏见,如过度思考(overthinking)、认知过载(cognitive overload)和完美主义偏见(perfectionism bias),导致模型因为一个微不足道的瑕疵而推翻一个整体上完全正确的答案。

有研究尖锐地指出,推理时的自修正很大程度上只是一种“临时补丁”,它并未改变模型底层的参数。然而,这种看似的困境却催生了一种更深刻的开发范式。内在自修正的真正价值,或许不在于修正本身,而在于它所产生的训练信号。

整个自修正过程——从初始响应,到自我批判,再到修正后的响应——本身就是一份极有价值的训练数据。这份数据可以被用来构建偏好对(例如,修正后的答案优于初始答案),然后反哺给更先进的微调方法,如直接偏好优化(DPO)。这揭示了一个强大的反馈闭环:推理时的失败,成为了训练时创造更稳健模型的原材料。最终目标不是一个在推理时需要自修正的模型,而是一个已经从海量自修正数据中完成学习,从而能直接生成高质量响应的模型。这种范式优雅地将“推理时修正”、“修正质量评估”与“模型训练”融合成了一个持续迭代、自我进化的循环。

无论是RLHF还是自修正学习,这些“内部质量”机制在解决旧问题的同时,也引入了新的、更隐蔽的二阶风险。例如,为了让模型更“有用”,RLHF训练出的模型常常过度拟人化,频繁使用“我”、“很抱歉”等词语,这可能误导用户对一个并无认知和情感的系统产生不当的信任。同样,本意在于提升准确率的内在自修正,却可能引入难以预测的认知偏见,用一种更精致、更具欺骗性的表象掩盖了底层的缺陷。

这使得挑战的核心发生了转变:问题不再是“模型会不会犯错”,而是“我们能否察觉到,模型正在以一种更复杂、更隐蔽的方式犯错”。

4. 质量保证:从失败分类到系统性根因分析

随着基础质量问题(如事实性、基础安全性)越来越多被前置语境工程和内化模型对齐所处理,评测的重心必然发生转移。它的角色不再是简单给出“通过/失败”结论,而是要深入探查复杂系统出现的、更隐蔽的系统性失败。

这一转变已经出现在LLMOps领域。评测驱动开发(Eval-Driven Development),如Vercel所倡导的,以及“持续评测”(Continuous Evaluation),如Gitlab在构建代码补全工具中所实践的,都标志着评测正从一个项目终点的验收关卡,变为一个贯穿开发全过程的、持续的反馈循环。

这种转变的根本在于,评估对象已经从单一、庞大的模型,演变为由多个组件构成的、模块化的软件系统。这个系统可能包括LLM本身、工具集、检索器、规划器等多个部分。对这样一个复杂系统进行评估,显然不能再依赖于只看最终输出是否正确的传统方法。那么,新的评测范式具体如何操作?

答案在于建立结构化、详细的失败分类学(Failure Taxonomies),从而实现对失败的根因分析(Root Cause Analysis)。

          案例研究:评估工具增强型LLM

工具增强型LLM(Tool-Augmented LLMs, TALLMs)是体现新评测范式必要性的绝佳案例。TALLM是一个典型的复杂AI系统,它将LLM的推理能力与外部工具(如API、代码库)的执行能力相结合。对TALLM的评估,传统基准显得力不从心。一个像MMLU这样的基准,在TALLM给出错误答案时,只能标记为“错误”,却无法告知失败的根源。

失败究竟是LLM的推理环节出了问题,还是它调用的API返回了错误信息,抑或是它未能正确解析API的返回结果?为了解决这个问题,研究人员为TALLM提出了一个详尽的失败分类学,其根源远超“答案错误”的范畴:

1. 工具选择失败:LLM选择了错误的工具,或者幻觉出了一个不存在的工具。、
2. 工具输入构建失败:为选定的工具构建了错误的参数或输入格式。
3. 工具输出解析失败:未能正确理解和解析工具返回的结果。
4. LLM约束解码失败:LLM未能生成符合预定格式(如JSON)的输出,导致工具调用无法被解析和执行。
5. 工具集本身的问题:工具集中缺少完成任务所必需的工具。
6. 工具自身的错误:外部工具在执行过程中发生崩溃或返回了错误的结果。

这个分类学将一个模糊的“失败”分解为六个可定位、可归因的具体问题点。使得开发者能够进行精确的根因分析,从而有针对性的修复。这正是未来评测的核心价值所在——从“评判”转向“诊断”。
        

这一发展趋势指向一个明确的未来:评测的未来在于专业化和领域特异性。像MMLU这样的通用“一刀切”排行榜,对于诊断复杂的、面向应用的系统性问题,其价值正迅速递减。随着语境工程和内在对齐技术负责处理好通用的事实性和安全性基线,评测的真正前沿将转向为高价值的专业领域(如代码生成、科学分析、自动化代理)构建深度、定制化的诊断框架。一个用于评估代码生成代理的评测体系,和一个用于评估医疗对话机器人的评测体系,将会截然不同,因为它们的核心功能和关键失败模式完全不同。“评测”将从一个统一的领域,分化为众多高度专业化的子学科。

最终,所有这些线索汇聚成一个全新的、整合的开发循环,我们称之为“诊断-接地-内化”(Diagnose, Ground, and Internalize)循环。这个循环将本报告的所有主题紧密联系在一起。

  1. 诊断:评测不再是终点,而是起点。利用一个详细的、领域特定的失败分类学(第四部分),精确诊断出系统失败的根源(例如,“TALLM失败是因为工具输入构建错误”)。
  2. 接地:针对诊断出的问题,采取主动的语境工程干预措施(第二部分)进行修复。例如,通过在语境中提供更清晰的工具文档,或加入一个正确的输入构建示例,来“接地”模型的行为。
  3. 内化:如果某一类型的失败频繁出现,那么就可以将这些“诊断-接地”循环中产生的数据(包括失败的提示、修正后的语境、成功的输出)收集起来,形成高质量的训练数据,用于对模型进行微调(第三部分),从而将这种修正“内化”为模型原生的能力。

这个闭环代表了开发与评测之间全新的共生关系。评测不再是一个被动的、令人畏惧的“守门员”,而是驱动迭代改进的引擎。

回到我们最初的问题:评测是否只是权宜之计?上面的分析告诉我们:评测并非一个将被淘汰的权宜之计,但其作为质量保证核心角色的形式正在被重塑。

确保LLM应用质量的重担,正在从后置的、被动的评测,向两个方向转移:一是前置的、主动的系统设计,即语境工程;二是模型本身的、内化的能力,即内在对齐与学习。开发者正通过构建更智能的系统架构和训练更稳健的模型,来从源头上预防错误的发生。

然而,这一转变非但没有让评测变得无足轻重,反而对其提出了更高、更复杂的要求。评测正在经历一场深刻的蜕变

  • 粗粒度的性能指标(如MMLU得分)转变为细粒度的诊断引擎
  • 从回答模型好坏转变为“系统在哪个环节、因为什么原因失败?”的精确问题

未来的世界,不是一个评测更少的世界,而是一个评测无处不在、持续进行、并与开发过程深度共生的世界。语境工程和内在对齐的成熟,将评测从一个简单的“守门员”,提升为了一个在“诊断-接地-内化”这一全新开发循环中不可或缺的、驱动创新的核心伙伴。正是这种开发与评测的全新共生关系,将推动下一代更稳健、更可靠、更值得信赖的AI系统的诞生。

文章来自我的观察和思考,然后经由 Gemini 2.5 Pro 的 Deep Research 而来。我个人通读并编辑内容,添加必要注释和配图。最大程度上基于本人知识和 Google 验证,所有错误都可以归为本人的才疏学浅。希望在跟大家一起学习 AI 的产品化应用道路上,能提供大家一些参考和思考。