news 2025/12/24 14:48:51

【收藏级】一文讲透大语言模型底层原理,小白也能轻松入门

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
【收藏级】一文讲透大语言模型底层原理,小白也能轻松入门

关注AI圈的朋友大概率都有过这种体验:刚理清“智能体”的概念,“MCP”“A2A”又冒了出来;刚上手Cursor编辑器,“Manus”“扣子空间”等新工具已刷屏朋友圈。技术迭代的速度之快,让人既兴奋又焦虑。

一方面,我们都清楚AI是未来技术的核心赛道,不想被时代甩在身后;另一方面,层出不穷的新名词、新应用让初学者望而生畏,总觉得“刚入门就落后”。但其实,拨开这些纷繁复杂的表象,你会发现一个关键规律——所有主流AI应用的核心,都离不开大语言模型(LLM);而支撑LLM运转的底层基石,正是Transformer架构。

这篇文章专为AI小白、程序员及对大模型原理感兴趣的朋友打造。我会从自然语言处理(NLP)的发展脉络讲起,帮你建立“语义建模”的核心思维,再拆解文本到数值的转化逻辑,最终深入剖析GPT等大模型的底层原理。贴心提示:对NLP有基础的读者,可直接跳至第三部分“Transformer架构详解”阅读核心内容。

一、NLP发展历程

理解和使用语言的能力是人类不同于其他动物的一个重要区别,也是人类智能的重要特征之一。人类的发展进步依赖于一代代人对知识的探索和传承,而这个传承的载体就是语言,可以说语言的发明对人类文明的延续来说至关重要。

人工智能作为一门用计算机实现人的智能的科学,自然语言处理一直都是很核心的研究方向。这个领域最核心的问题是:什么样的符号序列可以称作“自然语言”,其中“自然”是核心,我们说的每句话都是由文字组成的,但是并不是文字的任意组合都可以叫做自然语言。比如,“浙江大学在杭州”这句话就是一个常见的语言表达,可以认为是一个自然的语言。但是改成“浙江杭州在大学”看起来就不那么自然了。

所以,自然语言处理(NLP)的研究目标是构建能够理解、解释、生成和回应人类自然语言的智能系统,涵盖从语言理解、语义分析到语言生成、对话交互等多个层面,以实现人与机器之间高效、准确和自然的语言交流。今天的大语言模型虽然已经实现了这个目标。但是中间经历了一些曲折的发展历程。

在自然语言发展的早期,主要的思路是建立一套基于规则的自然语言处理系统,把知识表示为符号,然后根据建立的规则推理来实现自然语言的处理。但是语言这么复杂,一个意思有不同的表达方式、而且各个地区还有自己的方言、也会随着时代发展出现很多新的词汇,等等。是很难建人工建立一套规则来满足对自然语言理解和生成的需求的。

基于规则的路子行不通,出现了另外一种路子—基于统计学的思想,通过分析大规模语料数据的概率分布,自动学习语言模式和规律,而非依赖人工设计的固定规则。像早期的n-gram模型通过统计词频来计算一个句子中下一个词的概率。但这种模型的存在泛化能力差、且解决不了长文本依赖、不能深层理解语义等问题。

随着机器学习的快速发展,尤其是神经网络算法的兴起,研究者开始尝试通过构建大规模训练数据集,让模型自动学习语言中的规律和结构,从而训练出一个拥有大量参数、能够捕捉语言特征的语言模型。在今天大放异彩的 Transformer 架构出现之前,循环神经网络(RNN)及其改进版本 LSTM曾是自然语言处理领域的主流方法。

RNN 天然适用于处理序列任务,它标志着 NLP 正式进入了神经网络时代。但 RNN 模型也有显著的局限性:它采用串行计算方式,必须一个时间步接一个时间步地处理,难以并行化,导致训练效率低。同时,它还存在长距离依赖问题——也就是说,当模型处理很长的文本时,前面输入的信息难以传递到后面的输出,结果就是模型生成的句子可能会“前言不搭后语”,缺乏整体连贯性,难以生成逻辑完整的长文本。正是这些限制,为 Transformer 的出现铺平了道路。

2017年,Transformer架构通过自注意力机制有效克服了RNN的串行计算和长距离依赖问题。在OpenAI(GPT系列)、谷歌(BERT、T5)等机构及开源社区的推动下,Transformer成为NLP核心技术。2022年11月30日,OpenAI发布基于GPT-3.5的ChatGPT,通过指令微调和强化学习(RLHF)实现强大对话能力,掀起了一波巨大的人工智能浪潮。

RNN和基于Transformer的模型(如GPT、BERT)都基于机器学习的思想,通过从大量语料数据中学习语言规律来建模自然语言。RNN通过循环结构处理序列数据,捕捉局部上下文规律,而Transformer通过自注意力机制和自监督预训练,利用海量无标注数据高效捕捉长距离依赖和复杂语义,成为现代NLP的主流。

二、基于向量的语义表示

在前文中我们提到,大语言模型是基于深度学习的方法来构建的。而要“让机器去学”,首先得有“学习的材料”。对NLP而言,这些材料就是我们平时写的自然语言文本,比如句子、段落、文章,它们通常以字符或单词的形式存在。但问题在于:计算机无法直接理解文字,它只能处理数字。

那么我们就需要解决一个关键问题:如何把文本数据转化为机器可以学习的数值数据?更重要的是,这种数值表示还必须尽可能保留语义信息,否则机器学到的只是一堆没意义的数字。

在统计自然语言处理中,有一个非常重要的前提假设叫做分布式假设(Distributional Hypothesis)。它的核心思想是:词语的语义相似性可以通过它们的上下文分布来体现。换句话说,两个意思相近的词,往往会出现在相似的语境中。比如,“青菜”和“白菜”经常同时出现在“炒菜”“做饭”“菜谱”这类语境里。

正是基于这个假设,研究者提出了一种经典的方法:词嵌入(Word Embedding),即用向量来表示词语的语义特征。但你可能会好奇,向量这种数学概念,怎么就和“语义”扯上关系了呢?

我们可以先从一个简单的数学概念说起。比如描述一个人单一的特征(如体重)时,只需要一个数值,这叫做标量;而要同时描述体重、身高、年龄等多个特征时,就需要用一组有序数值,就可以用向量来描述。向量本质上是一种可以在高维空间中表示信息的数学结构。而“语义”作为语言中的隐含关系,可以通过词在不同上下文中出现的统计模式来学习——这些模式正好适合用向量来捕捉和表示。

词嵌入的核心思想,就是通过大规模语料库,学习每个词在不同上下文中出现的模式,训练后,我们得到一个词嵌入矩阵,其中每一行对应词表中某个词的向量表示,模型可以使用这个矩阵将词转换为其向量。例如,如果我们词表里有 50,000 个词,每个词的向量维度是 700,那这个嵌入矩阵就是一个50000 × 700的矩阵。

更重要的是,在这个“语义空间”中,语义相近的词向量会更接近。比如“足球”和“篮球”的向量距离就比“足球”和“西瓜”的距离更近。通过这种方式,机器就可以“感知”不同词语之间的语义关系,为后续的理解、生成等任务打下基础。

三、Transformer 架构详解:大语言模型的“发动机”

到这里,我们已经具备理解 Transformer 架构所需的两个基础前提:一是基于统计学习的思维方式,即通过大量语料让模型自动学习语言规律;二是将语言转化为具有语义信息的数值表示,让计算机能够对其进行处理和学习。

有了学习语言规律的方法,也有了能够表达语义的“向量语言”,那模型是怎么处理这些信息的?这就轮到 Transformer 登场了。

前文提到,Transformer 架构最早由 Google 在 2017 年提出,标题就是那句著名的:“Attention is All You Need”(一切只需注意力机制)。这套架构打破了当时序列建模必须依赖 RNN 的常规,用一种全新的方式实现了高效、并行、长距离依赖建模的能力。

当前,绝大多数大语言模型均以Transformer 框架为核心,并进一步演化出了三种经典架构,分别是 Encoder-only 架构,Decoder-only 架构以及 Encoder-Decoder 架构。当前NLP领域最流行的当属Decoder-only 架构。

无论是国外的GPT系列、Claude 系列、Gemini,国内的千问系列、DeepSeek系列等都用的是这个架构。接下来将介绍一下这个架构的核心流程及原理。

下面的视频是以GPT2为例,Decoder-only 架构运行过程的可视化展示。

Transformer 的核心任务就是:根据输入的词序列,预测下一个词出现的概率。你可以把它想象成一个“智能预测器”,每读进一个词,它就结合前面所有的词信息,计算下一个最可能出现的词是什么。这一过程是通过多个相互配合的模块来实现的,其中最关键的模块包括:

1.嵌入层

在大语言模型中,嵌入层的作用就是把人类的语言变成模型能理解的“数学形式”。首先,模型会把一句话拆成一个个最小的语言单位(叫做 token),每个 token 都会被转成一个数字 ID。然后,模型会将这些 ID 映射成带有语义的向量,也就是所谓的“词嵌入”。但单有词向量还不够,因为模型还需要知道这些词在句子中出现的顺序,所以会再加上“位置编码”,也就是告诉模型“谁先来,谁后到”。最终,每个词就被表示成一个同时包含语义和位置信息的向量,为后面的理解和生成打好基础。

这整个过程其实本身也是可以训练的,尤其是在 GPT 这样的模型中,词嵌入和位置编码都是模型学习的一部分。

2.多头注意力机制(Self-Attention)

Transformer 的核心在于“自注意力机制”。简单说,它的作用是:让模型在处理每个词时,都能动态地“关注”句子中其他相关的词

举个例子,假如我们有一句话:“小明把苹果给了他妈妈”,模型在理解“他”是谁时,需要参考上下文中的“小明”和“妈妈”,才能推测正确。传统的模型只能看前后几个词,Transformer 则通过自注意力机制,实现了“全局视野”——每个词都可以“看”整个句子,判断哪些词对当前词有帮助,给予不同的关注度。

这个机制的实现,主要通过将每个词向量变换成三个不同的向量:Query(查询)、Key(键)、Value(值)。然后通过这些向量计算每两个词之间的“相似度”,也就是注意力权重,最后根据这个权重加权求和,得到更新后的词向量表示。整个过程是可以并行计算的,因此效率非常高。

自注意力机制是强大的,但如果只用一种方式去“关注”上下文,可能会遗漏一些细节。于是,Transformer 又引入了“多头注意力”:让模型从多个角度、多个子空间去理解句子中各词之间的关系

比如一个头可能关注的是语法结构,另一个头关注的是情感倾向,第三个头关注的是实体关系……最终这些注意力头的结果会被拼接起来,再通过线性变换融合成一个统一的表示。

3. 前馈神经网络(Feed Forward Layer)

每个词在被注意力机制更新之后,还会通过一个前馈神经网络进一步加工。这个网络通常包含两层线性变换和一个激活函数(比如 ReLU 或 GELU),作用是增加模型的非线性表达能力,让模型能更好地拟合复杂语言规律。

这个前馈网络是对每个词位点独立应用的,也就是说,不同于注意力机制的“横向交流”,它是“竖着”单独处理每个词的。

4. 残差连接与层归一化(Residual + LayerNorm)

为了避免深层网络在训练中出现梯度消失、信息丢失等问题,Transformer 在每个子模块后都加上了“残差连接”(即保留输入和输出的加和)和“层归一化”操作。这就好像给模型的每一步处理都装了一个“保护装置”,让它更稳定、更容易训练。

5.输出层

输出层的作用是根据前面模型的计算结果,预测下一个最可能出现的词。它先用一个线性变换和 softmax 函数,把每个词出现的可能性算出来,形成一个“概率列表”。

不过我们不是每次都选最可能的那个词(不然句子太死板),所以还会加上一些“调味料”来让生成更自然:

  • 温度(temperature):控制随机性。温度高,生成更随机;温度低,生成更保守。

  • Top-k:只从最可能的前 k 个词里选,过滤掉一些不靠谱的词。

  • Top-p(又叫 nucleus sampling):从前面概率加起来刚好超过 p(比如 90%)的词中选,动态决定选词范围。

    这样模型就能在“合理”与“有变化”之间找到一个好平衡,生成的内容才更自然、灵活。

了解了Transformer的核心组成后,下面可以看一下各个模块是如何作用的?

1. 输入 token 序列 ↓ 2. 嵌入层(词嵌入 + 位置嵌入) ↓ 3. Transformer Block × N 层 每层包括: a. 注意力机制(Self-Attention) b. 残差连接 + 层归一化 c. MLP前馈网络 d. 再次残差连接 + 层归一化 ↓ 4. 输出层(映射回词表 + softmax 得到概率)

在指令或者提示词输入后,首先会在嵌入层表示为带位置信息的向量,输入到第一个Transformer块,一个Transformer架构在嵌入层和输出层中间有多个串联的Transformer块,具体数量看模型大小,每个Transformer块之间由“残差连接+归一化层”连接。每个Transformer块由注意力机制层、残差连接和归一化层以及MLP前馈神经网络层按照顺序连接组成。多头注意力层由多层并行的自注意力层组成。

了解了这些结构后,我们就能更好地理解大语言模型是怎么“看懂”人类语言的了。下一步,就是讲一讲它是怎么学会这些能力的——也就是模型的训练过程。

四、大语言模型是怎么“学会说话”的?——训练过程全解

了解了 Transformer 架构后,很多人下一个疑问是:模型怎么学会这么多语言能力的?它到底是怎么训练出来的?

其实你可以把模型训练想象成“喂养”和“锻炼”的过程。我们把大量的语料(比如新闻、百科、小说、网页对话等等)喂给模型,模型通过一次次猜词、改错、优化,把语言规律“内化”为它的参数。这个过程和人类学习语言其实非常像,只不过人是通过耳朵和大脑,大模型是通过“算力”和“梯度”。 我们可以把大语言模型的训练过程分成几个阶段来说:

1.预训练阶段:像填空一样学语言

最核心的一步叫“预训练”(Pre-training)。这个阶段的目标是:让模型掌握基础的语言知识和表达能力。训练方式类似“做完形填空”:

比如我们有一句话:“今天天气真 ___”,我们故意把“好”这个词遮住,让模型根据前后文来猜它是什么。它一开始可能猜错,比如猜成“冷”或“差”,但我们会告诉它正确答案是“好”,然后通过一种叫做“反向传播”的算法,把这个错误反馈给模型,调整它的参数,让它下次猜得更准。

这个过程一遍又一遍进行,每一次都是对模型的一次“训练”,直到它慢慢学会理解上下文中的逻辑和语义。

像 GPT 模型用的是一种叫自回归训练的方式,也就是每次只看前面的词,去预测下一个词,逐词生成。比如输入“我今天心情”,让它预测“很好”;输入“你喜欢什么”,让它预测“颜色”等等。训练目标就是最小化预测词和正确词之间的差距。

预训练之后的模型,已经掌握了非常多的通用语言能力,比如写文章、理解问题、总结要点等等,但它还不是“贴心的助手”,因为它不知道你到底想让它怎么用这些能力。

2.指令微调:教会模型听人话

预训练出来的模型,虽然能“说话”,但不一定“听话”。比如你问它:“能不能帮我写一份请假条?”它可能回一句:“请假是一种请别人批准自己不工作的行为。”——这显然不是你想要的。

所以 OpenAI 给 GPT 加了第二个训练阶段,叫指令微调(Instruction Tuning)。这就像你告诉模型:“当我说‘帮我做XXX’,你要真的去做,而不是解释这句话。”

这个阶段的做法是:准备大量“人类说了什么,模型应该怎么答”的对话数据,比如:

输入:请写一篇关于人工智能的科普文章
输出:当然,以下是一篇关于人工智能的科普文章……

输入:帮我把这段话润色一下
输出:当然,润色后的版本如下……

通过这种方式,模型就学会了听懂“指令”,更好地配合用户意图,变得更好用、更“懂人”。

3.强化学习微调:学会什么是“更好的回答”

最后一步是非常关键也非常创新的:通过强化学习,让模型不仅听话,而且回答得更符合人类喜好。

这个阶段叫做 RLHF(Reinforcement Learning with Human Feedback),直译是“结合人类反馈的强化学习”。

怎么实现的呢?首先,准备一批模型生成的回答,然后找一些人类标注员,对这些回答做“打分”或者排序,告诉系统哪一条更自然、哪一条更靠谱。然后训练一个“奖励模型”来模拟人类的打分逻辑,再用这个奖励模型对语言模型进行强化学习,调整它生成答案的倾向。

比如以前它会中规中矩地回答“我无法判断”,现在它会尽量有思考、有态度、有逻辑地回答问题。这就是为什么 GPT 在 ChatGPT 中看起来既聪明又有“性格”。

4.持续训练与模型迭代

以上三步完成后,一个大语言模型就训练出来了。但事情并没有结束。

AI 公司还会不断收集用户的真实使用数据,发现模型回答中存在的问题,不断进行“对齐训练”“安全微调”“能力提升”……比如 GPT-4 相比 GPT-3.5 在推理、代码生成、多轮对话上都提升明显,就是在这些细节上做了很多精细化优化。

总结一下,训练一个大语言模型,大致就是这三步:

先学语言规律(预训练)→ 再学听指令(指令微调) → 最后学会做得更好(强化学习)

它像一个语言天赋超强的孩子,靠看成千上万本书长大,再经过训练成为一个能听懂人话、写文章、答问题、生成代码的“超级助手”。

最后

总的来说,大语言模型的核心原理是:根据前面生成的内容,预测下一个最可能出现的词,本质上是一个自回归的概率模型。实现语义理解和文本生成等自然语言处理任务的关键,在于两个方面:一是基于 Transformer 架构的强大建模能力,二是对海量语料数据的训练。而 Transformer 的核心创新在于自注意力机制—— 每个词都能够关注上下文中的其他词,动态融合全局信息,从而更好地理解语境,实现精准的词预测。

此外,自注意力机制支持并行计算,极大提升了训练效率,使得现代 GPU 能够充分发挥作用。正是在这种结构优势与大规模数据训练的结合下,模型开始表现出“智能涌现”现象,具备了更强的语言理解、推理和生成能力,推动了人工智能的一次质的飞跃。

人工智能发展到今天,过程并非一帆风顺,而是经历了多次起伏。整个领域曾经历三次发展浪潮和两次“AI寒冬”,在智能探索的路上走了不少弯路。即便是如今最流行的 Transformer 架构,也是直到 2017 年被 Google 提出后,才逐渐在自然语言处理领域显现威力。最初,虽然 Transformer 在学术界引起关注,但其“扩展为超大规模模型”的潜力并未被普遍认识。OpenAI 基于这一架构进行了持续探索,从 GPT-1、GPT-2 到 GPT-3,不断扩大模型参数和训练数据量。尤其是在 GPT-3 发布之后,模型展现出的通用语言理解和生成能力,远远超出了研究人员的预期。可以说,大语言模型的崛起虽然建立在理论与工程积累的基础上,但它所带来的“智能涌现”效果,确实带有一些“始料未及”的惊喜。

智能时代已经到来,在AI的推动下,经济社会将发生翻天覆地的变化,我们没法预测10年后、5年后,甚至一年后会发生什么变化,未来充满了太多不确定性,因此我们多多少少都会对AI感到焦虑。但是焦虑不会带来改变,在变化面前我们唯一能做的就是拥抱变化,就像最近前OpenAI首席科学家llya在母校演讲说的那样“AI带来的挑战是人类有史以来最大的挑战,克服它也将带来最大的回报。在某种意义上,无论你是否喜欢,你的生活都将在很大程度上受到 AI 的影响。所以观察它,关注它,然后凝聚力量解决即将出现的问题——这将是最重要的事情。 ”

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线科技企业深耕十二载,见证过太多因技术卡位而跃迁的案例。那些率先拥抱 AI 的同事,早已在效率与薪资上形成代际优势,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。我们整理出这套AI 大模型突围资料包

  • ✅ 从零到一的 AI 学习路径图
  • ✅ 大模型调优实战手册(附医疗/金融等大厂真实案例)
  • ✅ 百度/阿里专家闭门录播课
  • ✅ 大模型当下最新行业报告
  • ✅ 真实大厂面试真题
  • ✅ 2025 最新岗位需求图谱

所有资料 ⚡️ ,朋友们如果有需要《AI大模型入门+进阶学习资源包》下方扫码获取~

① 全套AI大模型应用开发视频教程

(包含提示工程、RAG、LangChain、Agent、模型微调与部署、DeepSeek等技术点)

② 大模型系统化学习路线

作为学习AI大模型技术的新手,方向至关重要。 正确的学习路线可以为你节省时间,少走弯路;方向不对,努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划,带你从零基础入门到精通!

③ 大模型学习书籍&文档

学习AI大模型离不开书籍文档,我精选了一系列大模型技术的书籍和学习文档(电子版),它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。

④ AI大模型最新行业报告

2025最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

⑤ 大模型项目实战&配套源码

学以致用,在项目实战中检验和巩固你所学到的知识,同时为你找工作就业和职业发展打下坚实的基础。

⑥ 大模型大厂面试真题

面试不仅是技术的较量,更需要充分的准备。在你已经掌握了大模型技术之后,就需要开始准备面试,我精心整理了一份大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余

以上资料如何领取?

为什么大家都在学大模型?

最近科技巨头英特尔宣布裁员2万人,传统岗位不断缩减,但AI相关技术岗疯狂扩招,有3-5年经验,大厂薪资就能给到50K*20薪!

不出1年,“有AI项目经验”将成为投递简历的门槛。

风口之下,与其像“温水煮青蛙”一样坐等被行业淘汰,不如先人一步,掌握AI大模型原理+应用技术+项目实操经验,“顺风”翻盘!

这些资料真的有用吗?

这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理,现任上海殷泊信息科技CEO,其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证,服务航天科工、国家电网等1000+企业,以第一作者在IEEE Transactions发表论文50+篇,获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。

资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的技术人员,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。

以上全套大模型资料如何领取?

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2025/12/24 14:48:38

【独家披露】Open-AutoGLM内部使用手册:解锁高转化短视频的AI密码

第一章:Shell脚本的基本语法和命令Shell脚本是Linux和Unix系统中自动化任务的核心工具,它允许用户通过一系列命令的组合实现复杂操作。编写Shell脚本时,通常以“shebang”开头,用于指定解释器。脚本的起始声明 每个Shell脚本应以如…

作者头像 李华
网站建设 2025/12/24 14:38:58

初次上手如何快速开发基于大模型+function call的agent应用?

初次上手如何快速开发基于大模型function call的agent应用? 最近主导了一款ai agent系统的开发,在定架构的时候选择了MCP协议,在期间遇到不少坑点,记录顺分享一下相关内容。此篇是系列的第四篇:读完预计能对怎么快速搭…

作者头像 李华
网站建设 2025/12/24 14:35:23

GISer必看系列⑦|地信测绘就业单位类型

专业GIS公司专业GIS公司跟GIS从业者比较对口的,既有GIS平台研发单位,如:中地数码、易智瑞、超图;还有专门做项目的企业,像数据公司、系统平台、数字城市公司比比皆是。这些单位进去的门槛相对低些,薪资不高…

作者头像 李华
网站建设 2025/12/24 14:34:27

域名过期多久会被删除?完整时间线说明

很多人发现心仪的域名显示“已过期”,却不知道什么时候才能重新注册。实际上,域名从过期到真正删除,有一套相对固定的流程,不同阶段的操作空间也不一样。第一阶段:到期日(Expiration Date)域名到…

作者头像 李华