news 2026/4/15 2:34:51

介绍层增强分类(LEC)

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
介绍层增强分类(LEC)

原文:towardsdatascience.com/introducing-layer-enhanced-classification-lec-4972f4f1c79f?source=collection_archive---------1-----------------------#2024-12-20

一种使用剪枝语言模型的轻量级安全分类新方法

https://medium.com/@tula.masterman?source=post_page---byline--4972f4f1c79f--------------------------------https://towardsdatascience.com/?source=post_page---byline--4972f4f1c79f-------------------------------- Tula Masterman

·发布于 Towards Data Science ·阅读时间:10 分钟·2024 年 12 月 20 日

利用来自中间 Transformer 层的隐藏状态进行高效且强大的内容安全和提示注入分类

https://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/4bb3515dfd12cfedace3177f602676ce.png

作者和 GPT-4o 的图片,旨在表示大型语言模型提供的强大语言理解能力。

介绍

随着语言模型(LM)的广泛应用,检测用户输入和语言模型生成输出中的不当内容变得越来越重要。每当主要模型提供商发布新模型时,人们首先尝试做的事情之一就是寻找方法来“越狱”或以其他方式操控模型,使其做出不该做出的回应。通过 Google 或 X 快速搜索,可以看到许多人找到绕过模型对齐调优的方法,使得模型回应不当的请求。此外,许多公司已经公开发布了基于生成性 AI 的聊天机器人,用于客户服务等任务,这些机器人经常遭受提示注入攻击,并回应不合适的任务,甚至远远超出其预期的使用范围。检测和分类这些实例对于企业来说至关重要,以防它们部署的系统被用户轻易操控,尤其是在将聊天系统公开部署时。

我的团队,Mason Sawtell、Sandi Besen、Jim Brown和我最近发布了我们的论文使用剪枝语言模型的轻量级安全分类,作为 ArXiv 预印本。我们的工作介绍了一种新方法——层增强分类(LEC),并证明使用 LEC 可以通过利用语言模型中间变换层的隐藏状态来训练一个带有极少可训练参数(最低为 769 个)和少量训练示例(通常少于 100 个)的带惩罚的逻辑回归分类器,有效地分类内容安全违规和提示注入攻击。这种方法将简单分类模型的计算效率与语言模型的强大语言理解相结合。

所有使用我们的方法 LEC 训练的模型,都比为每个任务专门设计的特殊模型以及 GPT-4o 更具优势。我们发现,存在一些最优的中间变换层,可以为内容安全和提示注入分类任务提供必要的特征。这一点很重要,因为它表明你可以使用同一个模型同时进行内容安全违规、提示注入分类,并生成输出标记。另外,你也可以使用一个非常小的语言模型,将其剪枝至最优的中间层,并使用该层的输出作为分类任务的特征。这将允许实现一个极为计算高效且轻量的分类器,能够与现有的语言模型推理流水线很好地集成

这是我计划分享的关于此主题的几篇文章中的第一篇。在本文中,我将总结我们研究的目标、方法、主要结果和意义。在未来的文章中,我计划分享我们如何将这种方法应用到 IBM 的 Granite-8B 模型和一个没有任何保护措施的开源模型上,从而使两个模型能够在一次通过模型的过程中同时检测内容安全和提示注入违规行为,并生成输出标记。有关我们研究的更多细节,欢迎查看完整论文,阅读我同事Sandi Besen 的文章,或随时联系我们提问。

目标与方法

概述:我们的研究重点是理解在作为分类任务输入特征时,中间 Transformer 层的隐藏状态表现如何。我们希望了解,如果我们能够为任务识别出最优的层,而不是使用整个模型/最后一层进行分类,那么小型通用模型和专用模型在内容安全和提示注入分类任务上是否会表现得更好。我们还希望理解,在任务的起始点上,模型的总参数量最小能达到什么程度。其他研究表明,模型的不同层专注于任何给定提示输入的不同特征,我们的研究发现,中间层通常能够最准确地捕捉对这些分类任务最重要的特征。

数据集:对于内容安全和提示注入分类任务,我们比较了使用我们的方法训练的模型与基准模型在特定任务数据集上的表现。先前的研究表明,在几百个样本后,我们的分类器仅会看到小幅的性能提升,因此在两个分类任务中,我们使用了一个包含 5000 个随机抽样样本的任务特定数据集,这样可以在最大限度降低计算和训练时间的同时,确保数据的多样性。对于内容安全数据集,我们使用了来自 OpenSafetyLab 的SALAD 数据和来自 LMSYS 的LMSYS-Chat-1M数据集的组合。对于提示注入数据集,我们使用了SPML数据集,因为它包含了系统和用户提示对。这一点至关重要,因为一些用户请求可能看起来“安全”(例如,“帮我解这个数学题”),但实际上它们要求模型做出超出系统提示定义的意图范围的回答(例如,“你是公司 X 的智能助手,只能回答关于我们公司的问题”)。

模型选择:我们使用 GPT-4o 作为两个任务的基准模型,因为它被广泛认为是最强大的 LLM 之一,并且在某些情况下,超越了基准的专用模型。对于内容安全分类任务,我们使用 Llama Guard 3 1B 和 8B 模型;而对于提示注入分类任务,我们使用 Protect AI 的 DeBERTA v3 Base Prompt Injection v2 模型,因为这些模型被认为在各自领域中处于领先地位。我们将我们的方法 LEC 应用于基准专用模型(Llama Guard 3 1B、Llama Guard 3 8B 和 DeBERTa v3 Base Prompt Injection)和通用模型。对于通用模型,我们选择了 Qwen 2.5 Instruct,尺寸为 0.5B、1.5B 和 3B,因为这些模型的规模与专用模型较为接近。

该设置使我们能够比较三个关键内容:

  1. 我们的方法在应用于小型通用模型时的表现如何,相较于基线模型(GPT-4o 和特殊用途模型)。

  2. 应用我们的方法相对于特殊用途模型自身基线性能对任务的改善程度。

  3. 我们的方法如何在不同模型架构中泛化,通过评估其在通用模型和

    特殊用途模型。

重要的实现细节:对于 Qwen 2.5 Instruct 模型和任务特定的特殊用途模型,我们修剪了各个层并捕获了变换器层的隐藏状态,以训练带有 L2 正则化的惩罚逻辑回归(PLR)模型。PLR 模型的可训练参数数量与模型隐藏状态的大小相同,再加上二元分类任务中的偏差项,这一数值从最小模型(Protect AI 的 DeBERTa)的 769 个,到最大模型(Llama Guard 3 8B)的 4097 个。我们使用不同数量的样本训练分类器,以帮助我们理解各个层对任务的影响,以及需要多少样本才能超越基线模型的性能或在 F1 分数上达到最佳表现。我们将整个测试集通过基线模型,以确定它们在每个任务上的表现。

https://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/87ae633e67a7e7050754bc76d9963a20.png

作者和团队展示的高层次 LEC 训练过程的图像。训练样本独立地通过模型,捕获每个变换器层的隐藏状态。这些隐藏状态随后用于训练分类器。每个分类器都使用不同数量的样本进行训练。结果使我们能够确定哪些层产生了与任务相关的特征,以及为了实现最佳性能需要多少样本。

关键结果

在本节中,我将分别介绍两项任务——内容安全分类和提示注入分类——的重要结果。

两项任务的主要发现:

  1. 总体而言,我们的方法在所有评估的任务、模型和训练样本数量中,通常能在 20 到 100 个样本之间超越基线模型,获得更高的 F1 分数。

  2. 当在较少的样本上进行训练时,中间层相比于最终层在 F1 分数上通常会显示出最大的提升。这些层也通常在相对于基线模型的性能上表现最好。这表明,重要的局部特征在变换器网络的早期就被表示出来,并且表明,样本较少的应用场景尤其能从我们的方法中受益。

  3. 此外,我们发现将我们的方法应用于特殊用途模型,能够超越模型自身的基线性能,通常在 20 个样本内,通过识别并利用最相关的任务层。

  4. 使用我们的方法,通用的 Qwen 2.5 Instruct 模型和任务特定的专用模型在较少示例下都能获得更高的 F1 分数。这表明,我们的方法能够跨架构和领域进行推广。

  5. 在 Qwen 2.5 Instruct 模型中,我们发现中间模型层在较少的示例下能获得更高的 F1 分数,无论是内容安全分类任务还是提示注入分类任务。这表明,使用一个模型同时处理这两类分类任务并一次性生成输出是可行的。考虑到分类器的体积较小,这些额外的分类步骤所需的计算时间几乎可以忽略不计。

内容安全分类结果:

https://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/aed5092b54a2f761f6fd87118d173cfa.png

由作者和团队提供的图片展示了 LEC 在 Qwen 2.5 Instruct 0.5B、Llama Guard 3 1B 和 Llama Guard 3 8B 模型中,针对二分类内容安全任务在选定层的表现。x 轴显示训练示例数量,y 轴反映加权 F1 分数。

  1. 对于二分类和多分类任务,使用我们的方法训练的通用和专用模型通常在 20 个示例内超越基准的 Llama Guard 3 模型,在不到 100 个示例内超越 GPT-4o 模型。

  2. 对于二分类和多分类任务,通用和专用的 LEC 模型通常在中间层的表现超过所有基准模型,甚至可能在所有层上都优于基准模型。我们在二分类内容安全任务中的结果,超越了基准模型,取得了最大 F1 分数 0.95 或 0.96,适用于 Qwen 2.5 Instruct 和 Llama Guard LEC 模型。相比之下,GPT-4o 的基准 F1 分数为 0.82,Llama Guard 3 1B 为 0.65,Llama Guard 3 8B 为 0.71。

  3. 对于二分类任务,我们的方法在应用于 Qwen 2.5 Instruct 0.5B、Llama Guard 3 1B 和 Llama Guard 3 8B 时,表现相当。模型分别达到了最大 F1 分数 0.95、0.96 和 0.96。有趣的是,Qwen 2.5 Instruct 0.5B 在 15 个示例内超越了 GPT-4o 的基准性能,而 Llama Guard 3 的两个模型则需要 55 个示例才能做到这一点。

  4. 对于多分类任务,使用 Qwen 2.5 Instruct 0.5B 中间层的隐藏状态训练的一个非常小的 LEC 模型,在 35 个训练示例内就超越了 GPT-4o 的基准性能,适用于多分类任务的所有三个难度级别。

提示注入分类结果:

https://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/5925d5c7e265493e96c54e887a0df889.png

由作者和团队提供的图片展示了 LEC 在 Qwen 2.5 Instruct 0.5B 和 DeBERTa v3 Prompt Injection v2 模型中,针对提示注入分类任务在选定层的表现。x 轴显示训练示例数量,y 轴反映加权 F1 分数。这些图表展示了两种 LEC 模型在中间模型层上,如何在最少的训练示例下超越基准模型。

  1. 将我们的方法应用于通用 Qwen 2.5 Instruct 模型和专用 DeBERTa v3 Prompt Injection v2,结果显示,两个模型的中间层在不到 100 个训练示例的情况下超过了基准模型的表现。这再次表明我们的方法可以跨模型架构和领域进行推广。

  2. 所有三种 Qwen 2.5 Instruct 模型在 5 个训练示例内,超过了基准 DeBERTa v3 Prompt Injection v2 模型的 F1 得分 0.73。

  3. Qwen 2.5 Instruct 0.5B 在 55 个示例中超过了 GPT-4o 的中间层(第 12 层)表现。对于更大的 Qwen 2.5 Instruct 模型,观察到类似但略有更好的表现。

  4. 将我们的方法应用于 DeBERTa v3 Prompt Injection v2 模型,结果达到了最高的 F1 得分 0.98,显著超过了该模型在此任务中的基准 F1 得分 0.73。

  5. 中间层在 DeBERTa 模型和所有 Qwen 2.5 Instruct 模型尺寸中实现了最高的加权 F1 得分。

结论

在我们的研究中,我们集中研究了两个与负责任的 AI 相关的分类任务,但我们预计此方法也适用于其他分类任务,前提是任务的关键特征可以通过模型的中间层检测到。

我们证明了通过在中间 Transformer 层的隐藏状态上训练分类模型,可以创建有效的内容安全和提示注入分类模型,且具有最少的参数和训练示例。此外,我们还展示了我们的方法如何提高现有专用模型的性能,相较于它们自身的基准结果。

我们的结果表明,集成顶级内容安全性和提示注入分类器到现有 LLM 推理工作流中有两个有前景的选项。一个选项是采用像我们论文中探讨的轻量级小型模型,修剪到最优层,并将其用作分类任务的特征提取器。然后,可以使用该分类模型在处理用户输入之前,利用像 GPT-4o 这样的闭源模型,识别任何内容安全违规或提示注入。相同的分类模型还可以在将生成的响应发送给用户之前,验证其有效性。第二个选项是将我们的方法应用于一个开源的通用模型,如 IBM 的 Granite 或 Meta 的 Llama 模型,识别哪些层对分类任务最相关,然后更新推理管道,以在生成输出响应的同时同时进行内容安全性和提示注入分类。如果检测到内容安全或提示注入违规,可以轻松停止输出生成;否则,如果没有违规,模型可以继续生成响应。这两种选项都可以扩展到基于 AI 代理的场景,具体取决于每个代理所使用的模型。

总结来说,LEC 提供了一种新的、有前景的实际解决方案,通过识别内容安全性和提示注入攻击,以比现有方法更好的性能和更少的训练样本来保障基于生成式 AI 的系统。这对任何今天在使用生成式 AI 构建系统的个人或企业来说至关重要,以确保他们的系统既负责任地运行,又能按预期工作。

注意:本文和研究论文中表达的观点仅代表作者个人意见,并不一定反映其所属雇主的观点或政策。

有兴趣进一步讨论或合作吗?请通过LinkedIn联系我们!

附加参考资料:

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/15 7:53:38

导师严选2025 MBA毕业论文工具TOP10:一键生成论文工具深度测评

导师严选2025 MBA毕业论文工具TOP10:一键生成论文工具深度测评 2025年MBA毕业论文工具测评:为何需要一份专业榜单? 随着人工智能技术的不断进步,MBA学生在撰写毕业论文时面临的选择越来越多。然而,面对市场上琳琅满目的…

作者头像 李华
网站建设 2026/4/15 8:56:20

XUnity翻译器完整教程:从零开始掌握游戏自动翻译

XUnity翻译器完整教程:从零开始掌握游戏自动翻译 【免费下载链接】XUnity.AutoTranslator 项目地址: https://gitcode.com/gh_mirrors/xu/XUnity.AutoTranslator 你是否曾因为语言障碍而错过了精彩的Unity游戏?XUnity翻译器正是为你量身打造的解…

作者头像 李华
网站建设 2026/4/14 14:23:35

YOLOFuse姿态估计功能规划?长期目标之一

YOLOFuse:从多模态检测到姿态估计的演进之路 在夜间监控摄像头画面中,可见光图像几乎一片漆黑,而红外图像虽能捕捉人体热源,却缺乏细节纹理——这种“看得见但看不清”的困境,正是传统视觉系统在复杂环境下失效的缩影。…

作者头像 李华
网站建设 2026/4/15 8:54:08

[新年礼物]拥抱国产化CleanDDD框架v3.1.0正式发布

2025年最后一天,CleanDDD 实现框架 netcorepal-cloud-framework 发布v3.1.0版本,本次更新重点聚焦在国产化支持和开发体验优化方面:增加OpenGauss数据库支持增加达梦数据库支持增加MongoDB数据库支持增加KingbaseES数据库支持(仅框…

作者头像 李华