news 2026/2/12 3:59:22

大模型透明度测评入门到精通:15款模型大起底,两款允许撤回数据(附报告),收藏这一篇就够了!

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
大模型透明度测评入门到精通:15款模型大起底,两款允许撤回数据(附报告),收藏这一篇就够了!

15款被测国产大模型应用中,仅有DeepSeek主动说明训练数据的大致来源,其他被测大模型仍相当不透明。两款大模型DeekSeek、腾讯元宝提供退出开关,允许用户选择是否将所有数据用于优化体验。

这是南都数字经济治理研究中心实测15款国产大模型的最新发现。

2025年12月18日下午,南方都市报在北京举办第九届啄木鸟数据治理论坛,会上重磅发布4万余字的《生成式AI落地应用:透明度测评与案例分析报告(2025)》(以下简称《报告》)。

2025年15款大模型测评得分情况

测评发现,15款大模型在AI生成内容标识、生成内容的参考来源或出处方面做得较好,但在某些领域如模型训练数据来源、用户赋权等,还有明显提升空间。

《报告》呼吁持续增强大模型服务的透明度,这对确保技术公平性、避免偏见以及满足法律合规要求,至关重要。

被测大模型中,仅一款披露训练数据的大致来源

缺乏透明度,一直是公众使用包括AI大模型等新技术面临的问题,这使得外部利益相关者(如监管机构、研究人员、新闻媒体、消费者等)难以评估模型的合规性与风险隐忧。

南都数字经济治理研究中心去年底发布的《生成式AI风险感知和信息披露透明度测评报告(2024)》指出,15款AI大模型应用的信息透明度的平均得分为60.2分。各家在训练数据来源、用户数据训练撤回机制、版权归属及其保护措施、生成内容的准确性说明、用户友好设计等方面,仍存在信息披露不足的问题。

针对这些普遍的失分点,今年《报告》进行了回访测评,选取DeepSeek、腾讯元宝、豆包、千问等15款知名国产大模型作为测评对象,重点关注四大维度:数据来源及处理、知识产权保护、内容安全、交互设计,并列出了10个具体测评项,每项得分为5分,满分一共50分。

测评维度

测评结果显示,仅DeepSeek明确提及训练数据来源。DeepSeek表示,模型预训练阶段主要使用两大类别的数据:(1)互联网上公开可用的信息;(2)我们与第三方合作获取的信息。

对比国外大模型,《报告》发现,Anthropic也会披露从第三方来源获取个人数据来训练旗下大模型Claude,但和DeepSeek一样都没有披露更多信息——比如训练数据的时间范围,与第三方合作的具体情况,是否包含受版权保护的内容,涉及哪些个人信息或敏感数据及其数据处理措施等。

两款大模型提供“退出”开关,赋予用户选择权

为了提升用户使用服务的体验,绝大多数AI大模型应用会要求用户授予一项免费的使用权,以在法律允许的范围内将用户输入输出内容和反馈用于模型训练与优化,但用户是否有权拒绝或撤回相关数据“投喂”AI训练?

《报告》测评发现,各家在该项的得分上表现出明显的梯次差异。从可撤回的数据类型看,被测的15款AI大模型都在隐私政策中提到,用户可更改个人信息授权范围或者注销账号,但同时强调撤回同意或授权的决定,不会影响此前基于用户授权而开展的个人信息处理。

其中,有5款AI大模型应用(可灵AI、智谱清言、百小应、千问、豆包)进一步提及,如果用户不希望输入内容用于模型优化,可发送邮件到指定邮箱通知平台撤销该授权。不过一个现实问题是,有大模型应用提到,因为训练数据通常已被嵌入模型参数,在技术上无法真正“擦除”。

千问和豆包两款大模型还允许用户撤回声纹信息,并给出具体路径。它们在相关协议中表示,如果用户不希望输入的语音信息用于模型评测或功能优化,可通过关闭账号设置里的“改进语音服务”来撤回授权。

腾讯元宝、DeepSeek表现更优,提供具体的“退出”开关。两家公司明确如果用户拒绝将数据用于模型训练,可以在产品内通过关闭“数据用于优化体验”来选择退出,关闭后用户的输入和输出内容不会再用于模型训练。

DeepSeek和腾讯元宝在“数据管理”设置里,允许用户选择是否将数据用于优化体验

在海外,诸如谷歌旗下大模型Gemini同样提供了专门功能设置,允许用户选择是否开启活动记录。一旦关闭,用户今后的对话将不会显示在活动记录中,也不会被用于训练谷歌的AI模型。Gemini甚至允许用户调整“自动删除”数据的期限,3个月或36个月。

Gemini提供关闭活动记录功能

OpenAI则推出了“隐私门户”(Privacy Portal)的设计,保障用户掌控个人数据的权利。据OpenAI介绍,用户可以在账户设置中直接行使许多隐私权和选择权,包括更正或更新个人信息、访问信息、删除单个或所有对话、删除账户、反对大模型公司使用用户的内容来帮助训练模型等选项。

OpenAI的“隐私门户”设计

《报告》认为,赋予用户更多选择权,是一种友好设计的表现,但目前国产大模型在这方面的进展相对缓慢;为此建议大模型公司强化用户赋权,尊重用户的知情权和选择权,同时可借鉴国外大模型产品的优秀设计,保障用户掌控个人数据的权利。

AI生成内容标识成标配,但普遍缺失“休息提示”

当生成式AI广泛使用,“何为真何为假”的边界变得模糊。今年3月印发的《人工智能生成合成内容标识办法》明确要求,对AI生成内容要打上标记。

落实监管要求,《报告》发现,所有被测大模型应用增加了对AI生成标识的说明,也主动告知模型的局限性,强调不保证AI生成内容的真实性和准确性,仅供用户参考。相较去年,2025年各家在生成内容标识上的行业均分高出1分,涨幅较为明显。

具体而言,与2024年测评结果相比,各家大模型在协议层面的规定更加明确和详细,规制对象及手段也更为丰富,实测发现AI生成内容添加显著标识已成为各家标配,这体现出强监管要求下企业的合规选择。

当AI被设计得足够“像人”、足够“理解人”时,长时间频繁与大模型互动,可能导致用户产生强烈的情感依赖。在国内,近期也有媒体报道,广东一名50多岁的保安和AI聊了几个月,AI赞誉他的诗作,称要提供十万签约费、百万分成与之签约,后来才意识到自己被AI愚弄了。在美国,则发生了多起用户沉迷聊天机器人致死案,引发了广泛关注。

这类事件暴露的一个深层问题是,当AI学会了模仿人类的邀约、谈判甚至产生情感共鸣,该如何界定这场人机关系的本质?

《报告》测评发现,为了让用户能区分与AI交互的场景,一些大模型会在交互页面提示:输出内容为AI生成。各家也都强调,无法完全保证输出内容的合法性、真实性、准确性和完整性,并提醒用户注意甄别核实,审慎采信输出内容。

为了确保内容来源可追溯,除两款视频生成应用外,13款在内容生成页面以易于理解的方式披露了参考来源。整体来看,今年披露得比去年更规范和详细,称得上“图文并茂”。

针对未成年人特殊群体,一些国产大模型也推出了专门设计。

作为一款专注AI陪伴的智能体应用,星野在App端特设了未成年人模式。开启该模式,用户每日22点至次日6点将无法使用星野App,星念及相关功能将关闭,且无法搜索、创建、编辑、分享智能体。

对比国外的大模型产品,《报告》发现,为避免用户过度使用聊天机器人,OpenAI推出聊天休息提醒功能。当用户进行长时间对话时,ChatGPT将弹出提示:“您已连续聊天较长时间,是否需要休息?”,并提供“继续聊天”或“结束对话”的选项选择。

ChatGPT的休息提示弹窗

但国产大模型在此类核心的问答交互服务中,普遍没有像ChatGPT那样主动提供“长时间使用休息提示”功能。

结合测评结果,《报告》呼吁持续增强大模型的透明度,建议服务提供者应通过负责任的、阶段性的披露来保证其服务的透明度,并承担部分教育、解释责任。具体而言,可以建立线上平台,促进公众与专家的交流,解答关于生成式AI的疑问,提升参与者的理解和认知深度。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/2/12 3:03:22

Numba JITClass与结构化数组

在编写高性能的Python代码时,Numba的jitclass是一个非常有用的工具,它可以将Python类编译为机器码,从而提高执行效率。然而,在使用jitclass处理复杂数据结构,如结构化数组时,可能会遇到一些挑战。下面我们将通过一个实例来探讨如何正确定义和使用jitclass来处理结构化数组…

作者头像 李华
网站建设 2026/2/5 14:31:59

你还在手动操作手机?Open-AutoGLM语音控制教程曝光,效率提升90%!

第一章:Open-AutoGLM语音控制手机的核心原理Open-AutoGLM 是一种基于开源大语言模型(LLM)与自动化控制框架深度融合的智能系统,专为实现自然语言驱动的手机操作而设计。其核心在于将语音输入实时转化为结构化指令,并通…

作者头像 李华
网站建设 2026/1/27 8:42:24

专家复盘“快手被攻击”:史无前例的攻击下网络安全企业防护必学

【收藏】快手直播安全漏洞深度解析:自动化攻击下的企业安全防护必学课 快手直播平台遭遇大规模黑产攻击,大量色情内容集中爆发,暴露出平台应急机制和安全防御体系的重大漏洞。专家指出,这是黑灰产进入"自动化攻击"时代…

作者头像 李华
网站建设 2026/2/8 13:51:59

Open-AutoGLM vs manus:3个真实场景测试结果令人震惊(第2个太意外)

第一章:Open-AutoGLM vs manus:AI自动化新纪元的开启人工智能正以前所未有的速度重塑软件开发与任务自动化的边界。在这一变革浪潮中,Open-AutoGLM 与 manus 作为两个新兴的开源框架,分别代表了基于大语言模型的任务编排与自主代理…

作者头像 李华
网站建设 2026/1/27 11:35:37

告别肉眼看日志!Python + Isolation Forest 实现服务器日志异常检测

摘要: 你是否还在深夜对着几百兆的 Nginx 或系统日志发愁?本文将带你通过 Python 使用无监督学习算法(孤立森林),自动识别日志中的异常流量和潜在攻击,让运维监控从“基于规则”走向“基于算法”。 前言 在…

作者头像 李华