news 2026/4/12 23:37:16

【程序员必看】Prompt魔法全攻略:从“你好“到“帮我写个“,小白也能让AI乖乖写代码的6大秘诀!

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
【程序员必看】Prompt魔法全攻略:从“你好“到“帮我写个“,小白也能让AI乖乖写代码的6大秘诀!

一、什么是Prompt

Prompt提示是模型接收以生成响应或完成任务的初始文本输入。给AI一组Prompt输入,用于指导模型生成响应以执行任务。这个输入可以是一个问题、一段描述、一组关键词,或任何其他形式文本,用于引导模型产生特定内容的响应。

根据可解释性、交互方式和应用领域三个方面可对Prompt 进行分类。

可解释性分类:硬提示和软提示

硬提示(hard prompt )是手工制作的、预定义的带有离散输入标记的文本,或者文本模板。在很大程度上是静态的,一种硬编码的提示,它指示代理(Agent或模型)执行哪些操作。一般来说,模板包括: 定义了可以访问哪些工具,何时应该调用这些工具,以及一般的用户输入。

软提示(soft prompt )是在提示调优过程中创建的,不能在文本中查看和编辑,其包含一个嵌入或一串数字,代表从大模型中获得的知识。软提示可以替代额外的训练数据。

交互方式分类:在线提示和离线提示

在线提示(Online prompt) 是在与模型的实时互动中提供的提示,通常用于即时的交互式应用。用户可以逐步输入、编辑或更改提示,在在线聊天、语音助手、实时问题回答等应用中常见。

离线提示(Offline prompt )是预先准备好的提示,通常在用户与模型的实际互动之前创建。在离线文本生成、文章写作、大规模数据处理等应用中常见。

应用领域分类

以下是一些常见的类别:

  • Information Retrieval (信息检索): 这些 prompt 用于从模型中检索特定信息,如回答问题、提供事实或解释概念。
  • Text Generation (文本生成):用于指导模型生成文本,可能是文章、故事、评论等。
  • Translation (翻译):用于将文本从一种语言翻译成另一种语言。
  • Sentiment Analysis (情感分析):用于评估文本的情感倾向,如正面、负面或中性。
  • Programming and Code Generation (编程和代码生成):用于生成计算机程序代码或解决编程问题。
  • Conversation (对话):用于模拟对话或聊天,并回应用户提出的问题或评论。
  • Task-Specific (特定任务):针对特定应用或任务,如制定旅行计划、编写营销文案、生成报告等。
  • Custom Applications (自定义应用):针对特定领域或自定义应用,具体用途由用户定义。

二、Prompt 的一般要素

一个Prompt 基本包含6个要素:任务,上下文,示例,角色,格式和语气,而且这些要素是按重要性降序排列的。

示例:3个月训练计划

任务
生成一份个性化3个月体能训练计划,每周5天,包含力量、有氧和柔韧性训练

上下文
目标是减重8公斤并提升马拉松完赛能力。我是一名32岁男性,身高175cm,体重78公斤,有基础健身经验但膝盖曾受伤。每周可支配训练时间约6小时,家中有一对哑铃和跑步机

示例

第1-4周(基础期):- 周一:上肢力量(俯卧撑3组×12次,哑铃划船3组×15次)+ 拉伸15分钟- 周三:有氧慢跑30分钟(心率140-150次/分)- 周五:核心训练(平板支撑3组×60秒)+ 瑜伽20分钟...

角色
专业运动教练,擅长伤病预防和个性化方案设计

格式
Markdown表格,列包括"周期/周次"、“训练日”、“训练内容”、“强度(RPE)”、“注意事项”

语气
专业但鼓励,强调循序渐进和安全第一

1. 任务

任务描述是由动词引导,例如generate, drive, write, analyze等,而且需要明确任务目标。例如:

2. 上下文

一般描述背景信息,希望结果是什么样子,以及处于怎样的环境中,例如:

3. 示例

在提示中包含例子能产生更高质量的答案。 例如:

4. 角色

希望AI所扮演的角色。例如:

5. 格式

比如希望得到要点、段落、标记、代码块等格式。

6. 语气

如音调类型。

这6个要素中,任务是必须的,上下文和示例非常重要,而且最好也要有角色、格式和语气。

下面是一个电子邮件示例:

    1. 任务 (Task)
      撰写一封邮件向CEO汇报Apple Car预售成绩
    1. 上下文 (Context)
      你是苹果高级产品营销经理,Apple Car与特斯拉合作发布,预售量12,000台(超目标200%),收件人是Tim Cook
    1. 示例 (Exemplar)
      必须包含:tl;dr摘要、项目背景、量化业务结果、致谢产品/工程团队
    1. 角色 (Persona)
      苹果高级产品营销经理
    1. 格式 (Format)
      一封邮件
    1. 语气 (Tone)
      清晰简洁,自信且友好

三、Prompt 的工作原理

在理解Prompt工作原理之前,需要理解大模型是如何生成文本的。

例如,假设想让“Paris is the city…”这句话继续写下去。

如下图,先把输入语句通过分词器,转为向量表示,然后给到LLM,LLM根据学习到的词库数据,预测下一个单词的逻辑值,逻辑值通过函数变换为概率值,最后根据选择策略选出合适的单词

其中,token表示词元(可以简单理解为某个单词或字符的向量表示),logits表示逻辑值(可以理解为token的逻辑值),logits可以使用softmax函数转换生成token的概率(也就是把logits利用softmax变为概率值,用来表示某个token出现的概率)。

假设选择top 5的输出token,如下:

Paris is the city of love.Paris is the city that never sleeps.Paris is the city where art and culture flourish.Paris is the city with iconic landmarks.Paris is the city in which history has a unique charm.

然后, 有不同的策略来选择token。

贪婪采样 (greedy sampling)

简单来说,贪婪采样的模型在每一步都选择概率最高的词语,并基于选择的词语继续生成文本

如示例中生成的输出可能是:

Paris is the city of the future.

束搜索 (Beam Search)

在beam搜索中,模型假设一组最有可能的前“k”个token,这组k个token被称为“beam”。模型通过为每个token生成可能的序列,并通过扩展每个beam在文本生成的每个步骤中跟踪它们的概率来生成可能的序列,直到达到生成文本的所需长度或者每个beam遇到一个“终止”标记。模型会从所有beam中选择具有最高整体概率的序列作为最终输出。从算法的角度来看,创建beam就是扩展一个k叉树。在创建beam之后,选择具有最高整体概率的分支作为最终输出。

示例中生成的输出可能是:

Paris is the city of history and culture.

随机采样 (probability sampling)

简单来说就是通过选择一个随机值,并将其映射到所选的词汇来选择下一个词。可以将其想象为旋转轮盘,每个词汇的区域由其概率决定。概率越高,选中该词的机会越大。

带温度的随机采样 (ramdom sampling with temperature)

一般使用softmax函数将logit转换为概率。在这个时候,为随机采样引入了温度参数(一种影响文本生成随机性的超参数)。在引入温度之后,与典型的softmax不同于分母除以了温度T。温度越高(趋向1)输出结果会更加多样化,而温度越低(趋向0),输出结果则更加集中并更具确定性。当T = 1的时候,演变为最初使用的softmax函数。

TopK采样 (Top-k sampling)

只对前k个token进行温度下的随机抽样。

TopP采样 (Top-P sampling)

top-p采样不是指定一个固定的“k”个令牌数,而是使用一个概率阈值“p”。该阈值代表希望在采样中包括的累积概率。模型在每个步骤中计算所有可能令牌的概率,然后按照降序的方式对它们进行排序,直到它们的概率之和超过指定的阈值。

top-p采样的优势在于它允许根据上下文进行更动态和自适应的标记选择。每步选择的标记数量可以根据该上下文中token的概率而变化,这可以产生更多样化和更高质量的输出。

Prompt 工作机制

在预训练语言模型中,解码策略对于文本生成非常重要。有多种方法来定义概率,又有多种方法来使用这些概率。温度控制了解码过程中token选择的随机性。较高的温度增强了创造力,而较低的温度则关注连贯性和结构。

Prompt 的本质是语义特征的显式表达, Prompt 的工作机制很可能只是影响大模型所选择生成文本token的概率。

由于大模型在很大程度上是一个黑盒子,其涌现特性具有难解释性,而海量的数据关系很难抽象出确定性的特征,只能是概率性结果。用户的需求千变万化,并且对于需求的表达更是极具多样性。因此, Prompt 在某些限定领域才存在一些通用的表达方式。

什么是提示工程

提示工程(Prompt Engingering),是指如何与 LLM 通信的方法,以引导其行为向所期望的结果,而无需更新模型权重。提示工程关注提示词的开发和优化,帮助用户将大模型用于各场景和研究领域。提示工程包含了与大语言模型交互和研发的各种技能和技术。

提示工程在实现和大语言模型交互、对接,以及理解大语言模型能力方面都起着重要作用。用户可以通过提示工程来提高大语言模型的安全性,也可以赋能大语言模型,比如借助专业领域知识和外部工具来增强大语言模型能力。

提示工程(Prompt Engingeering)基本方式

1、Zero-shot Prompting

即没有任何示例说明所需(期望)的输出。

例如,可以向模型提供一个句子,并期望它输出该句子的情感:

- Prompt: Classify the text into neutral, negative, or positive.- Text: I think the vacation is okay.- Output: Neutral

2、Few-shot Prompting

是提供给模型少量高质量的示例,这些示例包括目标任务的输入和期望输出。few-shot 通过在提示中提供演示来指导模型执行任务。

示例:

- Prompt: A "whatpu" is a small, furry animal native to Tanzania.An example of a sentence that uses the word whatpu is:We were traveling in Africa and we saw these very cute whatpus.

3、instruction Prompting

指令提示旨在向模型提供指令提示示例。指令提示使用(任务说明,输入,真实输出)元组对预训练模型进行微调,以使模型更好地与用户意图对齐并遵循说明。

示例:

- Prompt: Define Onomatopoeia in one sentence.- Output: Onomatopoeia is the use of words that imitate or suggest the natural sound of a thing or action.

Prompt Engingeering的组合方式

主要包括思维链(CoT) 和 递归提示( Recursive Prompting)等。

1、Chain-of-Thought Prompting (CoT)

CoT提示生成一系列短句,即被称为推理链的句子。这些句子描述了逐步推理逻辑,导致最终答案,对于复杂推理的任务和较大的模型,可获得更多的好处。

常见的两种基本CoT提示包括Few-shot CoT 和 Zero-Shot CoT。

Few-shot CoT 允许模型查看一些高质量推理链的演示。例子:

Zero-shot CoT在提示中添加了“让我们逐步思考”,有助于提高模型性能。例子:

Prompt:I went to the market and bought 10 apples. I gave 2 apples to the neighbor and 2 to the repairman. I then went and bought 5 more apples and ate 1. How many apples did I remain with?- **Let's think step by step.**Output:- First, you started with 10 apples.-You gave away 2 apples to the neighbor and 2 to the repairman, so you had 6 apples left.-Then you bought 5 more apples, so now you had 11 apples.-Finally, you ate 1 apple, so you would remain with 10 apples.

2、 Recursive Prompting

递归提示可以使用少量提示方法将复杂问题分解为子问题,然后顺序解决提取的子问题,使用前一个子问题的解决方案来回答下一个子问题。这种方法可以用于数学问题或问答等任务,其中语言模型需要能够将复杂问题分解为更小、更易管理的部分,以得出解决方案。

例如:

Calculate the product of the length and width:prompt: "What is the product of 8 and 6?"answer: 48Substitute the given values for length and width into the equation:prompt: "What is the area of a rectangle with length 8 and width 6?"answer: "The area of a rectangle with length 8 and width 6 is 48."

recursive prompting 的更多示例 如下:

3、思维树(Tree of Thought)

思维树(Tree of Thought)通过探索每一步的多种推理可能性来扩展 CoT。首先将问题分解为多个思维步骤,并在每个步骤中生成多个思维,实质上是创建一个树形结构。搜索过程可以是广度优先过程或深度优先的过程,而每个节点的评估分类器可以通过Prompt提示的方式完成。

4、自动提示设计

一般而言,Prompt 相当于一系列前缀令牌,它们增加了在给定输入时获得所需输出的概率。因此,可以将它们视为可训练的参数,并通过梯度下降法直接在嵌入空间上对它们进行优化,例如 AutoPrompt ,Prefix-Tuning ,P 微调和 Prompt-Tuning,从自动提示到提示微调的趋势是设置的逐渐简化。

自动提示工程(APE)是一种在模型生成的Prompt候选集中搜索的方法,然后根据选择的得分函数过滤候选集,以最终选择得分最高的最佳候选提示

那么,如何系统的去学习大模型LLM?

作为一名深耕行业的资深大模型算法工程师,我经常会收到一些评论和私信,我是小白,学习大模型该从哪里入手呢?我自学没有方向怎么办?这个地方我不会啊。如果你也有类似的经历,一定要继续看下去!这些问题啊,也不是三言两语啊就能讲明白的。

所以我综合了大模型的所有知识点,给大家带来一套全网最全最细的大模型零基础教程。在做这套教程之前呢,我就曾放空大脑,以一个大模型小白的角度去重新解析它,采用基础知识和实战项目相结合的教学方式,历时3个月,终于完成了这样的课程,让你真正体会到什么是每一秒都在疯狂输出知识点。

由于篇幅有限,⚡️ 朋友们如果有需要全套 《2025全新制作的大模型全套资料》,扫码获取~

👉大模型学习指南+路线汇总👈

我们这套大模型资料呢,会从基础篇、进阶篇和项目实战篇等三大方面来讲解。

👉①.基础篇👈

基础篇里面包括了Python快速入门、AI开发环境搭建及提示词工程,带你学习大模型核心原理、prompt使用技巧、Transformer架构和预训练、SFT、RLHF等一些基础概念,用最易懂的方式带你入门大模型。

👉②.进阶篇👈

接下来是进阶篇,你将掌握RAG、Agent、Langchain、大模型微调和私有化部署,学习如何构建外挂知识库并和自己的企业相结合,学习如何使用langchain框架提高开发效率和代码质量、学习如何选择合适的基座模型并进行数据集的收集预处理以及具体的模型微调等等。

👉③.实战篇👈

实战篇会手把手带着大家练习企业级的落地项目(已脱敏),比如RAG医疗问答系统、Agent智能电商客服系统、数字人项目实战、教育行业智能助教等等,从而帮助大家更好的应对大模型时代的挑战。

👉④.福利篇👈

最后呢,会给大家一个小福利,课程视频中的所有素材,有搭建AI开发环境资料包,还有学习计划表,几十上百G素材、电子书和课件等等,只要你能想到的素材,我这里几乎都有。我已经全部上传到CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

相信我,这套大模型系统教程将会是全网最齐全 最易懂的小白专用课!!

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/8 0:13:20

Open-AutoGLM安卓14适配难题破解(独家优化参数曝光)

第一章:Open-AutoGLM安卓14适配难题破解(独家优化参数曝光) 在Android 14正式发布后,Open-AutoGLM框架面临多项底层兼容性挑战,主要集中在权限模型变更、Zygote初始化时机以及神经网络调度器的线程绑定机制。通过深度逆…

作者头像 李华
网站建设 2026/4/7 23:40:58

Open-AutoGLM性能飞跃:3大核心技术升级让弹窗识别快到离谱

第一章:Open-AutoGLM弹窗识别速度提升的背景与意义在现代自动化测试与智能交互系统中,弹窗识别是影响整体流程效率的关键环节。传统基于规则或模板匹配的弹窗检测方法在面对复杂多变的界面元素时,往往存在响应延迟高、泛化能力弱等问题。Open…

作者头像 李华
网站建设 2026/4/9 2:54:11

大数据领域存算分离的安全策略

大数据领域存算分离的安全策略:从原理到实践 引言 1.1 存算分离:大数据架构的必然趋势 在传统大数据架构中(如Hadoop 1.0),存储与计算是紧耦合的——数据存储在集群节点的本地磁盘,计算任务直接在存储节点上…

作者头像 李华
网站建设 2026/4/12 17:38:06

收藏!后端/小白转大模型全攻略:3个核心问题+4大岗位+避坑指南

最近后台的咨询消息彻底被“大模型转行”相关问题淹没,几乎每天都能刷到类似的灵魂拷问: “做了3年后端开发,现在转大模型还赶得上风口吗?”“市面上大模型课程鱼龙混杂,怎么分辨是真干货还是割韭菜?”“跟…

作者头像 李华
网站建设 2026/4/10 21:59:55

【Open-AutoGLM安装终极指南】:手把手教你5步完成Linux系统部署

第一章:Open-AutoGLM项目概述与部署准备Open-AutoGLM 是一个开源的自动化通用语言模型(GLM)集成框架,旨在简化大语言模型在企业级应用中的部署与调用流程。该项目支持多后端模型接入、任务自动调度、API 统一网关等功能&#xff0…

作者头像 李华
网站建设 2026/4/10 13:42:09

【每天了解一个AI证书】CAIE认证大纲设计解析(2026年)

2026年AI人才供需比仅为0.5,平均两个岗位争夺一位候选人,AI证书已成为职场竞争力的重要背书。但市场认证种类繁杂,部分认证存在知识体系碎片化、绑定单一厂商生态等问题,让求职者难以抉择。CAIE(注册人工智能工程师&am…

作者头像 李华