news 2026/4/26 9:50:19

Language Models Struggle to Use Representations Learned In-Context

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
Language Models Struggle to Use Representations Learned In-Context

Language Models Struggle to Use Representations Learned In-Context

Authors:Michael A. Lepori, Tal Linzen, Ann Yuan, Katja Filippova

Deep-Dive Summary:

论文总结:大语言模型中的思维链提示(Chain-of-Thought Prompting)

1. 引言与背景

虽然大型语言模型(LLMs)在各种自然语言处理任务中表现出色,但在处理需要多步推理的任务(如算术推理、常识推理和符号推理)时,其表现往往不尽如人意。本文探讨了如何通过一种简单而有效的方法——**思维链提示(Chain-of-Thought Prompting, CoT)**来提升这些模型的推理能力。

2. 什么是思维链提示(CoT)?

思维链是指在给出最终答案之前,产生的一系列中间推理步骤。思维链提示法通过在少样本提示(Few-shot Prompting)中加入这些推理过程,引导模型学会“思考”后再回答。

如上图所示,标准提示直接给出“问题-答案”对,而思维链提示则在答案前增加了一段逻辑推导。这种方法不需要对模型进行微调,只需通过提示词(Prompting)即可触发。

3. 思维链提示的核心特性

思维链提示具有以下几个关键优势:

  1. 分解任务:它允许模型将多步问题分解为更小的中间步骤,从而将计算资源分配给需要更多推理的部分。
  2. 可解释性:它为模型的推理路径提供了一个窗口,使我们能够观察到模型是如何得出结论的,并方便调试。
  3. 普适性:它可以应用于数学应用题、符号操纵和常识推理等多种任务。
  4. 易用性:只需在提示中增加几个推理示例,即可在预训练好的大型模型中激活该能力。

4. 算术推理实验

研究团队在包括 GSM8K、SVAMP、ASDiv、AQuA 和 MAWPS 在内的多个数学应用题基准测试中验证了思维链提示的效果。

实验设置

实验使用了多个大型语言模型,包括 LaMDA、GPT-3、Codex 和 PaLM,参数量级从7 B 7B7B540 B 540B540B不等。

5. 实验结果与涌现能力

实验结果表明,思维链提示在不同模型上的表现具有明显的规模效应

  • 涌现性:思维链提示对于小型模型(约< 10 B <10B<10B参数)基本无效,甚至可能降低性能。
  • 规模增长:其提升效果在模型规模达到约100 B 100B100B参数时显著爆发。
  • 超越最先进水平:例如,使用思维链提示的 PaLM540 B 540B540B在 GSM8K 数据集上的表现优于经过微调的专用模型。

此外,思维链提示对不同提示词(Prompters)的风格以及不同的样本顺序都表现出了较强的鲁棒性。

Original Abstract:Though large language models (LLMs) have enabled great success across a wide variety of tasks, they still appear to fall short of one of the loftier goals of artificial intelligence research: creating an artificial system that can adapt its behavior to radically new contexts upon deployment. One important step towards this goal is to create systems that can induce rich representations of data that are seen in-context, and then flexibly deploy these representations to accomplish goals. Recently, Park et al. (2024) demonstrated that current LLMs are indeed capable of inducing such representation from context (i.e., in-context representation learning). The present study investigates whether LLMs can use these representations to complete simple downstream tasks.
We first assess whether open-weights LLMs can use in-context representations for next-token prediction, and then probe models using a novel task, adaptive world modeling. In both tasks, we find evidence that open-weights LLMs struggle to deploy representations of novel semantics that are defined in-context, even if they encode these semantics in their latent representations. Furthermore, we assess closed-source, state-of-the-art reasoning models on the adaptive world modeling task, demonstrating that even the most performant LLMs cannot reliably leverage novel patterns presented in-context. Overall, this work seeks to inspire novel methods for encouraging models to not only encode information presented in-context, but to do so in a manner that supports flexible deployment of this information.

PDF Link:2602.04212v1

部分平台可能图片显示异常,请以我的博客内容为准

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/17 23:16:18

2026Web渗透学习路线 非常详细 推荐学习!

2026Web渗透学习路线 非常详细 推荐学习&#xff01; 当前&#xff0c;网络安全已成为企业生存的“生命线”&#xff0c;而Web渗透测试作为攻防对抗的核心领域。本文结合行业趋势和技术动态&#xff0c;为初学者量身定制一套系统化、实战导向的Web渗透学习路线&#xff0c;覆盖…

作者头像 李华
网站建设 2026/4/25 21:54:29

当AI深植企业生产:Java凭何成为落地关键?

随着人工智能技术从实验室走向企业生产环境&#xff0c;一场关于软件架构与业务模式的变革正在悄然发生。企业不再满足于AI作为辅助工具的角色&#xff0c;而是期望其深度融入核心业务系统&#xff0c;实现从“内容生成”到“服务重塑”的跨越。在这场变革中&#xff0c;Java凭…

作者头像 李华
网站建设 2026/4/23 19:19:11

基于SSM+JSP银行账户管理系统的设计与实现

项目说明 随着金融科技的快速发展和银行业务的不断创新&#xff0c;传统的手工账户管理方式已经无法满足现代银行业务的需求。传统的账户管理存在效率低下、差错率高、安全性不足等问题&#xff0c;严重影响了银行的服务质量和运营效率&#xff0c;为了提高银行业务的现代化进程…

作者头像 李华
网站建设 2026/4/20 22:48:33

宾夕法尼亚州立大学团队:让AI系统学会自己进化

这项由宾夕法尼亚州立大学、亚马逊和杜克大学联合开展的研究发表于2026年2月&#xff0c;论文编号为arXiv:2602.00359v1&#xff0c;有兴趣深入了解的读者可以通过该编号查询完整论文。这项研究提出了一个让人眼前一亮的想法&#xff1a;让AI系统学会自己进化&#xff0c;就像生…

作者头像 李华