news 2026/2/7 8:16:04

大模型入门精要:从API调包到RAG与ReAct实战指南

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
大模型入门精要:从API调包到RAG与ReAct实战指南

文章详解了大模型核心参数messages与tools的使用方法,介绍RAG检索增强生成和ReAct(Reason+Act)两种基本范式,以及调优提示词、增加调用次数和模型微调三大实用技巧。通过翻译和计算器等实例,帮助开发者理解大模型应用开发,同时指出业务能力和拟人化才是成功关键,避免陷入"什么都往LLM上靠拢"的误区。


本文是作者给兄弟团队做的大模型入门分享,介绍了基本大模型模式,分享出来希望帮助更多的同学参与到LLM应用建设。

前言

大模型作为新兴领域,不断地冒出来新的专有术语和新的概念,让大家觉得很神秘,捉摸不透。但是大部分复杂性的背后都会有一个极其简单便于理解的模型,本次分享最主要就是大模型的基本范式,通过范式将这些神秘感去除。

大模型虽然很厉害,很神秘,但作为使用人员,门槛是非常非常非常低的。

模型基础

虽然市面上的大型语言模型(LLMs)种类繁多,但在使用层面大家平等的都是API调包侠,因此从接口层面来剖析大模型有哪些能力。LLM的接口通常都遵循或类似于 OpenAI 的规范。这里我们以 OpenAI 的接口为例进行说明。

在与大型模型交互时,除了控制模型输出随机性的参数外,最核心的参数只有两个:messagestools。可以说,市面上各种各样的大模型应用,都是基于这两个参数的基础上设计而来。

messages-大模型是怎么实现记忆的?

  • messages是一个对话数组,其中角色主要有:
  • system:代表当前对话的系统指令,一般放提示词
  • user:用户指令
  • assistant:LLM的回复
  • …:不同厂商会有不同的扩展定义

大模型所谓的对话记忆实际上就是依赖该数组做信息传递,如下图所示,第一轮我告诉我的名字叫屈定,第二轮的时候在问他是谁,他已经知道了我的名字,之所以知道因为我在messages的上下文中传递给了他这个信息。

  • 使用user传递用户的对话

  • 使用system设置系统指令

  • 提示词的不稳定容易被指令注入攻击

三张图看完,先总结下:

  • 大模型为什么能记住之前的对话?

只是因为后台系统给了他之前的对话,并不是他自己记住。大模型的请求调用就是一个无状态的,取决于每次给的对话内容。

  • 大模型的提示词有什么用?

大模型的提示词可以进一步控制(覆盖)模型的行为,具备高优先级,但存在不稳定性。


接下来我们就可以来理解第一个重要的大模型范式:检索增强生成,也就是RAG(Retrieval Augmented Generation)。

直白的理解为用检索到的知识,来增量生成答案的质量。比如我有一个关于数仓各种问题处理的Q&A,想要做一个问答机器人,这个问答机器人要基于我的Q&A回复用户。这个 检索Q&A -> 基于检索到的Q&A回复用户,这个流程就是一个典型的RAG链路。也显而易见,RAG的最终目标是生成靠谱的答案给到用户。

RAG链路的搭建是很简单,但是效果却很难,从流程里面我们能发现两个关键点:

1.知识库检索召回:这里要解决如何召回最靠谱的答案。

2.LLM基于知识回答:这里要解决的是如何让模型在一堆知识中给出自信准确的回答。

这些都是业界在不断探索的东西,没有所谓的标准答案,只有适合当前业务的最佳方案。

tools-大模型能执行任何工具?

经常有同学会问一些大模型是否能查询odps,或者大模型能够把数仓数据导入到ob之类的问题。这些问题的背后是对LLM存在错误的理解,也就是tools参数的理解。

tools也是一个数组,包含了一堆工具集合,核心为工具的作用描述,和工具需要的参数,如下图天气工具的定义。

接下来就是使用工具,基于工具的回答至少要两次大模型请求调用:

1.将用户的对话和工具一起给到大模型,大模型需要执行的工具以及工具参数;

2.后端系统依据大模型选择结果,去执行对应的工具,拿到结果;

3.再次请求大模型,此时上下文中给到了工具执行结果,大模型基于信息回复;

先总结下:

1.大模型并不能够执行任何工具,但是大模型能够选择接下来要执行的工具。选择后工具由配合的系统来执行获取结果。


接下来我们就可以来理解第二个重要的大模型范式ReAct(Reason+Act)。

这里需要强调下,大模型的很多范式都是对生活中人类行为的模拟,因此我们也是从生活中的案例来理解大模型。

案例主题:老板让写一份调研外部大模型框架的报告

工具:互联网搜索,PPT,思维导图

思考 (Reasoning): 需要调研外部大模型框架,明确调研目标是了解行业内的主要框架、特点和应用场景。需要先明确有哪些主流框架,然后针对性地收集资料。 行动 (Acting): 行动: 使用互联网搜索“主流大模型框架 2024/2025”、“开源大模型框架”。 观察 (Observation): 观察: 搜索结果显示:PyTorch、TensorFlow、JAX等是主流框架,还有一些新兴框架如MindSpore、Paddle等。
思考 (Reasoning): 我已经拿到了想要的资料,接下来使用思维导图搭建汇报思路 行动 (Acting): 行动: 使用思维导图工具,搭建报告的初步框架,包括:框架名称、开发语言、主要特点、优势、劣势、应用场景。 观察 (Observation): 观察: 初步框架包括:框架名称、开发语言、主要特点(动态图/静态图、分布式训练支持等)、优势、劣势、应用场景(NLP、CV等)。
思考 (Reasoning): 信息基本收集完毕,需要将所有信息整理成结构化的报告,并使用PPT进行总结和分析。 行动 (Acting): 行动: 使用PPT工具,将思维导图中的内容整理成PPT,并撰写文字说明。 观察 (Observation): 观察: 完成了PPT初稿,内容比较全面,但需要进行排版美化。

这个思考的流程就是ReAct,后面有实际案例,这里先理解这个概念。

模型使用

大模型的应用五花八门,但都离不开上述两个核心参数,接下来围绕上述的参数,我们能利用的现有的模型交互手段主要有以下三种,包括:

  • 调优提示词:大模型工程中的核心,提示词的优秀与否决定了你是否需要链路上做额外的兜底
  • 增加调用次数:将一个任务拆分为多个子任务执行,最后判断结果。这是一种常用的对提示词能力的补充手段,降低单一提示词的复杂性。
  • 模型微调:通过引入特定业务场景案例,让模型能更好地理解用户的意图和需求。

用大模型+提示词做翻译 [提示词调优]

为了更好的评价,我们选择哪吒中的英文台词,然后将英文翻译成中文,看还原度如何?

The prejudice in people's hearts is like a mountain. No matter how hard you try, you can't move it. Looking back on it, three years isn't that long. Be quick to obey my command I'm the captain of my destiny, not heaven. If you ask me whether people can change their own destiny, I don't know. But defying fate is Nezha's destiny.

方案一:直接使用提示词进行翻译

## Role and Goal: 你是一个翻译专家,尤其擅长英文到中文的翻译,接下来我给你多段英文台词,帮我翻译成中文. ## Constraints - 翻译时保持译文格式不变 ## Background: 原文来自《哪吒》系列电影的第二部中的台词,讲述了天劫之后,哪吒、敖丙的灵魂保住了,但很快会魂飞魄散。太乙真人打算用七色宝莲给二人重塑肉身,但是在重塑肉身的过程中却遇到重重困难,哪吒、敖丙的命运将迎来更多的挑战。 ## Guidelines: 1. 结合背景将文本直接翻译成中文,保持原始格式,不省略任何信息。 ## Source: - The prejudice in people's hearts is like a mountain. No matter how hard you try, you can't move it. - Looking back on it, three years isn't that long. - Be quick to obey my command - I'm the captain of my destiny, not heaven. - If you ask me whether people can change their own destiny, I don't know. But defying fate is Nezha's destiny. ## Output: {译文}

绝大多数情况下,直接使用提示词能做到的效果就已经能达到60%了(现在的模型确实强大了),下方的问题在于一些短的语句翻译不够传神。

模型方案一翻译结果:
gemini-2.0-flash* 人心中的成见就像一座大山,任你怎么努力也无法搬动。 * 如今想来,三年光阴,也不算长。 * 还不快快听我号令! * 我命由我定,不由天! * 要问我人能否改变自己的命运,我不知道。但是,逆天而行,就是哪吒的命。

方案二:提示词中引入COT(Chain-of-Thought)

COT被称为思维链,简单点来说是要告诉模型针对问题的思考步骤是什么,引导模型去按照特定思维解决问题。概念很抽象,以翻译为例,我们思考一般人是如何进行翻译的?

1.先直接翻译

2.结合上下文再审视这个翻译是否合理,有哪些改进点

3.针对改进点再斟酌修改

那么我们也让模型按照这个思路来执行翻译。

## Role and Goal: 你是一个翻译专家,尤其擅长英文到中文的翻译,接下来我给你多段英文台词,帮我翻译成中文. ## Constraints - 翻译时保持译文格式不变 - 严格按照output中定义的范式输出 ## Background: 原文来自《哪吒》系列电影的第二部中的台词,讲述了天劫之后,哪吒、敖丙的灵魂保住了,但很快会魂飞魄散。太乙真人打算用七色宝莲给二人重塑肉身,但是在重塑肉身的过程中却遇到重重困难,哪吒、敖丙的命运将迎来更多的挑战。 ## Guidelines: 翻译的过程分为三部分: 1. 直译:结合背景将文本直接翻译成中文,保持原始格式,不省略任何信息。 2. 评估和反思:结合背景道教封神,主人公对命运反抗,识别直接翻译中的具体问题,例如: - 非母语常用的中文表达, - 笨拙的措辞 - 过于口语化的表达 - 等等 提供解释,但不要添加或省略内容或格式。 3. 意译:根据字面翻译和已识别的问题,重新解释翻译,确保它保持与原始输入格式一致,不要删除任何内容。 ## Source: - The prejudice in people's hearts is like a mountain. No matter how hard you try, you can't move it. - Looking back on it, three years isn't that long. - Be quick to obey my command - I'm the captain of my destiny, not heaven. - If you ask me whether people can change their own destiny, I don't know. But defying fate is Nezha's destiny. ## Output: ### 直译 {直译} *** ### 评估和反思 {评估和反思} *** ### 意译 {意译}

该方案取得了意想不到的效果,针对长句翻译成短句组合形式, 相比官方的来看,更像是修道者的口吻,但针对一些特殊短句用法,仍然不够理想。

模型方案一翻译结果:方案二翻译结果:
gemini2.0 flash* 人心中的成见就像一座大山,任你怎么努力也无法搬动。 * 如今想来,三年光阴,也不算长。 * 还不快快听我号令! * 我命由我定,不由天! * 要问我人能否改变自己的命运,我不知道。但是,逆天而行,就是哪吒的命。* 人心存偏见,如山岳难移。纵使竭尽全力,亦不可撼动分毫。 * 如今想来,三年光阴,弹指一挥间。 * 奉我号令,不得有误! * 我命由我不由天! * 若问世人能否逆天改命,吾不得而知。然,抗争宿命,乃哪吒之命也。

方案三:引入动态few shot

few shot指的是提示词中的少样本技巧,动态就是将这部分样本抽离到一个知识库,每一次走翻译前先去知识库里面召回TOP最相关的,然后放入到提示词的Example中。

假设我的知识库中召回了如下两句:

Item1: 原文:Be quick to obey my command 意译:急急如律令 Item2: 原文:Life is not long, but it's not short either. 意译:人生,说长不长,说短不短。

结合后提示词如下:

## Role and Goal: 你是一个翻译专家,尤其擅长英文到中文的翻译,接下来我给你多段英文台词,帮我翻译成中文. ## Constraints - 翻译时保持译文格式不变 - 严格按照output中定义的范式输出 ## Background: 原文来自《哪吒》系列电影的第二部中的台词,讲述了天劫之后,哪吒、敖丙的灵魂保住了,但很快会魂飞魄散。太乙真人打算用七色宝莲给二人重塑肉身,但是在重塑肉身的过程中却遇到重重困难,哪吒、敖丙的命运将迎来更多的挑战。 ## Guidelines: 翻译的过程分为三部分: 1. 直译:结合背景将文本直接翻译成中文,保持原始格式,不省略任何信息。 2. 评估和反思:结合背景道教封神,主人公对命运反抗,识别直接翻译中的具体问题,例如: - 非母语常用的中文表达, - 笨拙的措辞 - 过于口语化的表达 - 等等 提供解释,但不要添加或省略内容或格式。 3. 意译:根据字面翻译和已识别的问题,重新解释翻译,确保它保持与原始输入格式一致,不要删除任何内容。 ## Example: 1. 原文:Be quick to obey my command 意译:急急如律令 --- 2. 原文:Life is not long, but it's not short either. 意译:人生,说长不长,说短不短。 ## Source: - The prejudice in people's hearts is like a mountain. No matter how hard you try, you can't move it. - Looking back on it, three years isn't that long. - Be quick to obey my command - I'm the captain of my destiny, not heaven. - If you ask me whether people can change their own destiny, I don't know. But defying fate is Nezha's destiny. ## Output: ### 直译 {直译} *** ### 评估和反思 {评估和反思} *** ### 意译 {意译}
模型方案一翻译结果:方案二翻译结果:方案三翻译结果:
gemini2.0 flash* 人心中的成见就像一座大山,任你怎么努力也无法搬动。 * 如今想来,三年光阴,也不算长。 * 还不快快听我号令! * 我命由我定,不由天! * 要问我人能否改变自己的命运,我不知道。但是,逆天而行,就是哪吒的命。* 人心存偏见,如山岳难移。纵使竭尽全力,亦不可撼动分毫。 * 如今想来,三年光阴,弹指一挥间。 * 奉我号令,不得有误! * 我命由我不由天! * 若问世人能否逆天改命,吾不得而知。然,抗争宿命,乃哪吒之命也。* 人心之偏见,如山岳岿然,纵移山填海,亦难撼其分毫。 * 事过境迁,三年光阴,亦不过弹指一挥间。 * 急急如律令 * 我命由我不由天! * 若问人定胜天否,我亦茫然。然逆天而行,乃哪吒之宿命。

few shot这种开卷考试方法是大模型链路中一种重要的优化手段,few shot是提示词中为数不多能够动态变化的部分,且对模型整体效果影响较小,更为可控。此外业务流量一般都是符合2:8分布的,且是可收敛的,可能只需要20%的few shot案例,就能满足80%的场景诉求。

用大模型+Agent做计算器 [增加调用次数]

大家应该都看过下面的案例,大模型是很不擅长数学计算的,那么用大模型直接做计算器就非常容易出问题。

这里使用llama_index的agent框架做演示:

1.定义了三个工具函数,乘法,加法,减法

2.构建一个Agent执行模式

import os from dotenv import load_dotenv from llama_index.core.agent import ReActAgent from llama_index.core.tools import FunctionTool from llama_index.llms.azure_openai import AzureOpenAI def multiply(a: int, b: int) -> int: """Multiply two integers and returns the result integer""" return a * b def add(a: int, b: int) -> int: """Add two integers and returns the result integer""" return a + b def subtract(a: int, b: int) -> int: """subtract two integers and returns the result integer""" return a - b # 加载 .env 文件 load_dotenv() # 初始化工具 multiply_tool = FunctionTool.from_defaults(fn=multiply) add_tool = FunctionTool.from_defaults(fn=add) subtract_tool = FunctionTool.from_defaults(fn=subtract) llm = AzureOpenAI(model="gpt-4o", # 或者 gpt-4 engine='gpt-4o', deployment_name="gpt-4o", api_key=os.getenv('AZURE_KEY'), azure_endpoint="https://ilm-dev.openai.azure.com", api_version="2023-07-01-preview") # 初始化Agent agent = ReActAgent.from_tools([multiply_tool, add_tool, subtract_tool], llm=llm, verbose=True) response = agent.chat("What is 60-(20+(2*4))? Calculate step by step ")
> Running step cba1a160-74c3-4e34-bcc4-88e6a678eaf9. Step input: What is 60-(20+(2*4))? Calculate step by step Thought: The current language of the user is: English. I need to use a tool to help me answer the question. To solve the expression \(60 - (20 + (2 * 4))\) step by step, I will first calculate the multiplication inside the parentheses. Action: multiply Action Input: {'a': 2, 'b': 4} Observation: 8 > Running step 5455108e-ac53-4115-8712-68f2457a9b82. Step input: None Thought: Now that I have the result of the multiplication, I can proceed to the next step, which is to add 20 and 8. Action: add Action Input: {'a': 20, 'b': 8} Observation: 28 > Running step 4d8fae00-83bd-4205-9993-f0e0119f408d. Step input: None Thought: Now that I have the result of the addition, I can proceed to the final step, which is to subtract 28 from 60. Action: subtract Action Input: {'a': 60, 'b': 28} Observation: 32 > Running step ce5d1075-ff11-47a2-b286-d7a715dc40ba. Step input: None Thought: I can answer without using any more tools. I'll use the user's language to answer. Answer: The result of the expression \(60 - (20 + (2 * 4))\) is 32.

上次有同学问,那么大模型在这种链路里面到底发挥了什么作用?大模型最大的能力就是自然语言理解,我们可以尝试把规则再复杂化,输入改成张三代表减法,李四代表加法,王二代表乘法,What is 60张三(20李四(2王二4))? Calculate step by step,表现仍然可以,这就带来了对自然语言的容错,会像人一样去思考,而不是固定死的逻辑。

Thought: The current language of the user is English. I need to use a tool to help me answer the question. The expression given is 60张三(20李四(2王二4)), which translates to 60 - (20 + (2 * 4)). I will calculate step by step. First, I need to calculate the multiplication part: 2王二4, which is 2 * 4. Action: multiply Action Input: {'a': 2, 'b': 4} Observation: 8 > Running step 48262cb8-5c3a-47b7-b13b-449787c27078. Step input: None Thought: The result of 2王二4 is 8. Now, I need to calculate the addition part: 20李四8, which is 20 + 8. Action: add Action Input: {'a': 20, 'b': 8} Observation: 28 > Running step 1cccd5c6-3d96-4014-a579-1c997765a1da. Step input: None Thought: The result of 20李四8 is 28. Now, I need to calculate the subtraction part: 60张三28, which is 60 - 28. Action: subtract Action Input: {'a': 60, 'b': 28} Observation: 32 > Running step 65d33d20-1009-4482-a6d2-7af20333640c. Step input: None Thought: I can answer without using any more tools. I'll use the user's language to answer. Answer: The result of 60张三(20李四(2王二4)) is 32.

模型微调

这部分具体案例就不好说了,我举个实际生产的案例,在给WorldFirst做客服的时候,存在很多特殊的业务知识,比如用户在万里汇下载银行对账单 != 下载交易流水单。这里有业务背景,银行对账单是亚马逊要求的账户证明文件。这些业务背景是模型难以掌握的,此时就需要引入微调,将这部分知识内置到模型里面。

现在主流的方式都在慢慢弱化微调,因为费时费力,还不一定起到正向的效果,更多的工程实践是将提示词复杂化动态化,工程上做更多的兜底工作。

​最后

我在一线科技企业深耕十二载,见证过太多因技术卡位而跃迁的案例。那些率先拥抱 AI 的同事,早已在效率与薪资上形成代际优势,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。

我整理出这套 AI 大模型突围资料包:

  • ✅AI大模型学习路线图
  • ✅Agent行业报告
  • ✅100集大模型视频教程
  • ✅大模型书籍PDF
  • ✅DeepSeek教程
  • ✅AI产品经理入门资料

完整的大模型学习和面试资料已经上传带到CSDN的官方了,有需要的朋友可以扫描下方二维码免费领取【保证100%免费】👇👇
​​

为什么说现在普通人就业/升职加薪的首选是AI大模型?

人工智能技术的爆发式增长,正以不可逆转之势重塑就业市场版图。从DeepSeek等国产大模型引发的科技圈热议,到全国两会关于AI产业发展的政策聚焦,再到招聘会上排起的长队,AI的热度已从技术领域渗透到就业市场的每一个角落。


智联招聘的最新数据给出了最直观的印证:2025年2月,AI领域求职人数同比增幅突破200%,远超其他行业平均水平;整个人工智能行业的求职增速达到33.4%,位居各行业榜首,其中人工智能工程师岗位的求职热度更是飙升69.6%。

AI产业的快速扩张,也让人才供需矛盾愈发突出。麦肯锡报告明确预测,到2030年中国AI专业人才需求将达600万人,人才缺口可能高达400万人,这一缺口不仅存在于核心技术领域,更蔓延至产业应用的各个环节。

​​

资料包有什么?

①从入门到精通的全套视频教程⑤⑥

包含提示词工程、RAG、Agent等技术点

② AI大模型学习路线图(还有视频解说)

全过程AI大模型学习路线

③学习电子书籍和技术文档

市面上的大模型书籍确实太多了,这些是我精选出来的

④各大厂大模型面试题目详解

⑤ 这些资料真的有用吗?

这份资料由我和鲁为民博士共同整理,鲁为民博士先后获得了北京清华大学学士和美国加州理工学院博士学位,在包括IEEE Transactions等学术期刊和诸多国际会议上发表了超过50篇学术论文、取得了多项美国和中国发明专利,同时还斩获了吴文俊人工智能科学技术奖。目前我正在和鲁博士共同进行人工智能的研究。

所有的视频教程由智泊AI老师录制,且资料与智泊AI共享,相互补充。这份学习大礼包应该算是现在最全面的大模型学习资料了。

资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。


智泊AI始终秉持着“让每个人平等享受到优质教育资源”的育人理念‌,通过动态追踪大模型开发、数据标注伦理等前沿技术趋势‌,构建起"前沿课程+智能实训+精准就业"的高效培养体系。

课堂上不光教理论,还带着学员做了十多个真实项目。学员要亲自上手搞数据清洗、模型调优这些硬核操作,把课本知识变成真本事‌!

​​​​

如果说你是以下人群中的其中一类,都可以来智泊AI学习人工智能,找到高薪工作,一次小小的“投资”换来的是终身受益!

应届毕业生‌:无工作经验但想要系统学习AI大模型技术,期待通过实战项目掌握核心技术。

零基础转型‌:非技术背景但关注AI应用场景,计划通过低代码工具实现“AI+行业”跨界‌。

业务赋能 ‌突破瓶颈:传统开发者(Java/前端等)学习Transformer架构与LangChain框架,向AI全栈工程师转型‌。

👉获取方式:

😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓**

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/2/1 8:28:35

AutoGPT镜像弹性伸缩架构:应对流量高峰

AutoGPT镜像弹性伸缩架构:应对流量高峰 在AI应用从“被动响应”走向“主动执行”的今天,AutoGPT这类自主智能体正悄然改变人机协作的边界。它不再只是回答问题的聊天机器人,而是能接收一个目标——比如“帮我写一份Python学习计划”&#xff…

作者头像 李华
网站建设 2026/1/30 21:19:45

ollama下载配置Qwen3-8B后如何提升token生成速度?

如何让 Qwen3-8B 在 Ollama 上跑得更快?深度优化 token 生成速度的实战指南 在本地部署大模型时,你是否也遇到过这样的场景:明明硬件配置不差,但调用 qwen3:8b 生成一段回答却要等上好几秒,首 token 延迟高得让人怀疑人…

作者头像 李华
网站建设 2026/2/5 12:40:35

动态插补补救实时特征缺失稳住预警模型

📝 博客主页:jaxzheng的CSDN主页 目录当医疗大数据遇上AI:一个菜鸟程序员的自救指南 一、从输液瓶到数据库的奇幻漂流 二、AI医生的"恋爱脑" 三、医疗大数据的"人间真实" 四、当隐私撞上区块链 五、菜鸟程序员的自救指南…

作者头像 李华
网站建设 2026/2/5 11:37:30

此扩展程序不再受支持怎么办?迁移至vLLM生态

此扩展程序不再受支持怎么办?迁移至vLLM生态 在大模型落地生产的浪潮中,许多团队正面临一个尴尬却现实的问题:曾经依赖的推理服务或自研扩展程序突然弹出“此扩展程序不再受支持”的提示。这不仅意味着功能冻结,更可能带来安全漏…

作者头像 李华
网站建设 2026/2/6 8:19:36

我的论文马拉松:当AI工具成为贴身“学术教练”

又到毕业季,一位经济学硕士生的屏幕上,开题报告、问卷星后台、SPSS结果窗口、知网浏览器和空白的Word文档挤作一团——这是无数毕业生面对“毕业论文”这项终极学术任务时的数字战场缩影。数据显示,超过60%的研究生将论文写作列为求学期间**最…

作者头像 李华