news 2026/4/14 15:33:51

人类基准测试大翻车:样本不足、方法不透明,AI性能结论可信吗?

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
人类基准测试大翻车:样本不足、方法不透明,AI性能结论可信吗?

来源:DeepTech深科技

运营/排版:何晨龙

我们经常在一些对比 AI 性能的测试中,看到宣称基础模型在自然语言理解、推理或编程任务等性能超人类的相关报道。

但你有没有想过,这些结果真的可信吗?

在近期的一项研究中,美国哈佛大学研究员魏来(Kevin Wei)与合作者指出,目前人类基准测试(Human Baselines)的严谨性和透明度存在一系列严重问题,这直接关系着相关测试中关于 AI 性能的结论是否“立得住”的问题。

为此,研究人员对基础模型评估中人类基线方法提出了相关的改进建议。与此同时,为全面梳理当前评估方法的短板,他们还系统回顾了 115 项人类基线研究。

相关论文以《立场:模型评估中的人类基线需要严谨性和透明性》(Position: Human Baselines in Model Evaluations Need Rigor and Transparency)为题发表在 ICML 2025(The Forty-Second International Conference on Machine Learning)[1]。

图丨相关论文(来源:ICML)

长期以来,人类基准测试作为 AI 领域评估模型性能的重要工具,直接影响着对 AI 基础模型表现的判断,尤其是为 AI 达到超人类的水平相关结论是否可靠提供关键参考。

魏来目前的主要研究方向是 AI 评估测试,致力于将安全测试的系统做得更安全,以及将相关机制做得更好。他对 DeepTech 表示:“我们在研究过程中发现,当下很多声称模型达到超人类性能的研究,其人类基线评估方法不仅严谨性不够,透明度也不足。这会导致人类和 AI 性能的比较缺乏可信性。”

图丨魏来(来源:魏来)

人类基准测试结果是否可信关系着对系统层级的理解,以及对人类的层级准确比较。相关结论不仅影响着机器学习社区、相关用户和政策制定者,还与 AI 是否能代替、如何替代人类工作等社会和经济问题密切相关。

表丨基线设计与实施项目(含数据填补)的汇总统计(来源:ICML)

研究人员发现,在以往研究中最大的问题是所选取作为基线缺乏代表性,或在进行基线测试时,为基线测试人员和网络系统提供的信息存在差异:要么对二者所提出的问题不同,要么在某些方面存在差异,使得二者之间难以进行有效比较。

让人意外的是,只有 59% 的基线使用与 AI 相同的测试集。举例来说,某个数据中有 1,000 个样本,然后研究人员可能仅从中选 50 个样本作为基线,再将这 50 个人类的层级与 1,000 个 AI 系统的场景做对比。

除此之外,人类基线的样本量普遍不足也是极为重要的问题,这会导致无法据此判断这一结果是否能够代表更广泛人群。其中,以单个测试题目计算,人类基线的回应者人数中位数仅有 8 人,远低于科学研究的可靠性要求。

另一方面,伦理审查报告方面,只有 14% 的论文报告了伦理审查,其中大部分研究并没有公开测试方法、参与者信息和数据分析代码。在统计检验使用方面的问题同样严重,进行统计检验的基线只有 8%。

“我们发现,这种在人类基准测试过程中普遍存在信息不透明的做法,在影响结果可重复性的同时,也很有可能存在潜在的偏差。”魏来表示。

图丨建立可靠且透明的人类基线数据的五个阶段和相关建议(来源:ICML)

基于对测量理论和 AI 评估文献的分析,该团队提出了一个新的框架来改进相关问题,其涵盖五个阶段并在每个阶段给出了相关建议。

具体而言:

·设计与实施(Design&Implementation):选择一致且具有代表性的测试集,迭代基线工具,收集足够大小的样本和满足伦理要求;

·招募(Recruitment):指定感兴趣的人群,选择适当的抽样策略,在招募过程中采用质量控制;

·执行(Execution):在执行过程中采用质量控制,控制方法效应,控制人类和 AI 的努力程度,收集定性基线数据(例如解释);

·分析(Analysis):量化人类和 AI 表现之间的不确定性,确保评估指标、评分标准和评分方法的一致性;

·文档化(Documentation):报告方法和基线样本的详细信息,采用开放科学和可重复性标准。

根据相关建议,在设计人类基线时,可采用更科学的方法来确保公平性和准确性。例如,研究人员借鉴了包括心理学、经济学、政治学等在内的多学科知识,为 AI 和人类性能的比较提供了新的视角。研究还强调了透明度的重要性,指出基于详细的记录和报告,可促进研究结果更可信。

研究人员将这些建议整合成一份清单,并在此基础上系统性地回顾了 115 项基础模型评估中的人类基线研究。这项研究不仅梳理出当下人类基准测试方法中存在的不足,同时也为未来研究特别是数学领域 AI 技术的评估指出了改进方向。

参考资料:

1.https://openreview.net/forum?id=gwhPvu97Gm

阅读最新前沿科技趋势报告,请访问欧米伽研究所的“未来知识库”

https://wx.zsxq.com/group/454854145828

未来知识库是“欧米伽未来研究所”建立的在线知识库平台,收藏的资料范围包括人工智能、脑科学、互联网、超级智能,数智大脑、能源、军事、经济、人类风险等等领域的前沿进展与未来趋势。目前拥有超过8000篇重要资料。每周更新不少于100篇世界范围最新研究资料。欢迎扫描二维码或访问https://wx.zsxq.com/group/454854145828进入。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/14 22:02:58

终极指南:3步解决游戏翻译路径问题

终极指南:3步解决游戏翻译路径问题 【免费下载链接】XUnity.AutoTranslator 项目地址: https://gitcode.com/gh_mirrors/xu/XUnity.AutoTranslator XUnity.AutoTranslator作为热门的游戏翻译工具,在解决语言障碍方面表现出色,但很多新…

作者头像 李华
网站建设 2026/4/11 20:57:16

小白从零开始勇闯人工智能:机器学习初级篇(随机森林)

引言如果我们需要判断一封电子邮件是否为垃圾邮件。如果只依赖单个人(或单一算法)进行判断,可能会因为固有的偏见或知识局限而出错,但如果让一群人(多个算法)分别独立判断,再通过投票共同决定&a…

作者头像 李华
网站建设 2026/4/13 10:37:22

Markdown嵌入交互式图表,增强AI博客表现力

Markdown嵌入交互式图表,增强AI博客表现力 在深度学习项目开发中,最让人头疼的往往不是模型结构设计或调参优化,而是环境配置——“在我机器上明明能跑”的尴尬场景屡见不鲜。尤其是当涉及PyTorch、CUDA、cuDNN等组件版本错综复杂时&#xff…

作者头像 李华
网站建设 2026/4/6 0:15:25

PyTorch-CUDA-v2.6镜像兼容性测试覆盖主流显卡

PyTorch-CUDA-v2.6镜像兼容性测试覆盖主流显卡 在深度学习项目快速迭代的今天,一个常见的痛点是:为什么代码在一个设备上跑得好好的,换到另一台机器就报 CUDA error 或直接无法加载 GPU? 这背后往往不是模型的问题,而是…

作者头像 李华
网站建设 2026/4/10 5:34:09

GPU算力按Token计费模式适合哪些AI应用场景?

GPU算力按Token计费模式适合哪些AI应用场景? 在生成式AI爆发的今天,企业面对的一大难题是:如何用合理的成本支撑一个随时可能被成千上万用户调用的大模型服务?如果买几块A100自建集群,初期投入动辄数十万元&#xff1b…

作者头像 李华