| 概念 | 核心思想与要解决的问题 | 输入与输出(空间转录组为例) | 与相似概念的核心区别 | 在空间转录组中的典型应用 |
|---|---|---|---|---|
| 图神经网络 (GNN) | 处理非欧几里得结构的关系数据。传统深度学习无法建模细胞间的空间邻接关系,GNN通过消息传递机制融合邻居信息,增强细胞表征。 | 输入:细胞基因表达矩阵 + 空间坐标构建的邻接图(如Delaunay三角剖分或k近邻)。 输出:融合空间上下文的新细胞特征向量。 | 与CNN区别:CNN处理规则网格(如图像像素),GNN处理不规则图结构(如细胞网络),适用于任意拓扑的空间组织。 | - 空间域识别(spatial domain detection) - 细胞类型注释(借助空间一致性) - 空间轨迹推断 - 异常区域检测(如肿瘤微环境边界) |
| 图卷积网络 (GCN) | 实现GNN的一种基础方式,采用一阶邻域均值聚合,模拟卷积操作,在图上提取局部模式。 | 同GNN。通常使用归一化拉普拉斯矩阵进行传播。 | 与GAT区别:GCN对所有邻居赋予相同权重(“平均主义”),而GAT可学习差异化注意力权重,更具表达力。 | - 初级空间聚类(如Seurat + GCN后处理) - 基于图的降维 - 作为其他模型的基础模块(如STAGATE) |
| 图注意力网络 (GAT) | 在GNN中引入注意力机制,动态计算邻居的重要性权重,实现更灵活的信息聚合。 | 同GNN。额外输出注意力权重矩阵,反映细胞间相互作用强度。 | 核心在于“可学习的注意力权重”,能捕捉异质性空间依赖(如某些细胞只受特定邻近细胞影响)。 | - 高精度空间结构解析(如STAGATE、GraphST) - 发现关键调控细胞或“枢纽”细胞 - 构建细胞通信网络(pseudo-cell-cell signaling) |
| Transformer / 自注意力 | 捕捉长距离依赖与全局上下文。通过自注意力机制让序列中任意两个元素直接交互,适合建模复杂依赖关系。 | 输入:按空间顺序排列的基因表达序列(或将组织切片划分为“patch”) 输出:每个位置包含全局上下文信息的增强表示。 | 与RNN相比:并行化强、无长期遗忘问题; 与对比学习不同:Transformer是架构,关注内部结构关联;对比学习是训练策略,强调样本间区分。 | - 全局空间上下文建模(如Spatial Transformer) - 跨区域结构匹配(多切片对齐) - 图像-转录组联合建模(整合H&E图像与spot表达) |
| 对比学习 | 无需标签地学习判别性特征。通过构造正负样本对(如同一细胞的不同增广 vs 不同区域细胞),拉近相似、推远不似。 | 输入:一批细胞及其增广视图(如随机掩码、高斯噪声、空间扰动) 输出:一个通用的特征编码器,可用于下游任务。 | 与监督学习:无需人工标注; 与Transformer:它是训练范式,常用于训练Transformer或GNN等模型。 | - 自监督预训练(如SCALE-X、ConST) - 多组学整合前的特征对齐 - 跨平台/跨技术数据标准化(Visium ↔ Slide-seq) |
| 扩散模型 | 通过学习从噪声到数据的逆过程,生成高质量、多样化的数据。特别擅长修复缺失或低质量数据。 | 输入:含噪声或稀疏的spot表达矩阵(如UMI count少) 输出:去噪后或插补完成的完整表达矩阵。 | 与GAN相比:训练更稳定、模式覆盖更全; 与插补方法(如SAVER)相比:基于概率流,理论更坚实,生成更自然。 | - 数据去噪与表达补全(如Denoising Spatial Omics) - 缺失切片重建(模拟连续切片) - 高分辨率图像级转录组生成(从低分辨率spot生成亚细胞级图谱) |
| 经典统计模型 | 提供可解释的推断结果。基于明确的概率假设(如泊松分布、混合模型),进行参数估计与假设检验。 | 输入:原始计数数据 + 模型先验(如空间平滑性) 输出:聚类结果、差异表达基因、置信区间、p值等。 | 与深度学习:追求“白箱”解释性 vs “黑箱”高性能;统计模型更适合小样本、需验证的研究场景。 | - 差异表达分析(如SPARK、SpatialDE) - 空间变量基因检测(identify spatially variable genes) - 贝叶斯聚类(如BayesSpace) |
| 自编码器 (Autoencoder) | 无监督学习核心特征。通过瓶颈层压缩数据,并尝试重建,迫使网络提取本质结构。 | 输入:高维基因表达向量(per spot/cell) 输出:1) 低维潜变量(latent representation);2) 重构表达谱。 | 与PCA区别:非线性变换,能捕捉复杂流形结构;但缺乏显式数学解释。 | - 非线性降维(如scVI、stSVAE) - 批效应校正(integration via shared latent space) - 数据去噪(denoising autoencoder) |
| 深度学习 (Deep Learning) | 方法论总称。利用深层神经网络自动学习多层次抽象特征,减少人工特征工程依赖。 | 输入输出高度任务相关: - 分类:细胞类型预测 - 回归:空间坐标预测 - 生成:表达谱合成 | 与传统机器学习(如SVM、Random Forest):DL自动提取特征,ML依赖手工特征设计;DL需要大数据,ML可在小样本工作。 | - 端到端空间分析流程(如CellFormer、Tangram) - 多模态融合(RNA + histology + protein) - 下游任务统一框架(分类、聚类、生成一体化) |
📌 补充说明:空间转录组中各方法的协同趋势
当前前沿研究往往组合使用多种方法,形成“模块化”流程:
预处理阶段:
- 使用扩散模型或自编码器进行去噪与插补;
- 使用对比学习对多个样本进行自监督预训练,获得通用特征。
特征学习与结构解析:
- 构建空间图 → 应用GAT/GCN进行空间上下文编码;
- 或将spot视为token → 使用Vision Transformer建模全局依赖。
下游分析:
- 在学到的潜空间中进行聚类(对应空间域识别);
- 结合经典统计模型做SV gene检测或差异分析,提升可解释性。
跨模态与生成任务:
- 使用Transformer + 扩散模型实现H&E图像到转录组的映射(image-to-RNA generation);
- 使用对比学习对齐不同技术平台的数据(如Visium与MERFISH)。
✅ 总结一句话:
在空间转录组中,GNN系列主导空间关系建模,Transformer与对比学习推动自监督发展,扩散模型提升数据质量,经典统计保障可解释性,而自编码器和深度学习为整个流程提供底层支撑——它们共同构成了现代空间组学智能分析的核心工具链。
下面我用最通俗的大白话 + 类比生活场景的方式,重新解释这张表的核心内容,并告诉你:
👉 这些“高大上”的技术,在空间转录组研究中到底是用来干什么的?
🌟 先搞懂一个背景:什么是空间转录组?
想象一下,你的身体是由无数个“小房子”(细胞)组成的社区。每个房子里住着不同的人(比如神经细胞、免疫细胞),做不同的事。
传统的基因检测只能知道:“这个社区里有哪些人”,但不知道他们具体住在哪一栋楼。
而空间转录组技术就像给每一栋楼装上了GPS定位器,不仅能知道每栋楼里住了谁(是什么细胞),还能看到他们的地理位置!
🎯 目标就是:
看清组织里的细胞是怎么排布的?哪些细胞挨在一起?有没有特殊的区域(比如肿瘤中心)?
但问题是:数据太多太复杂了,人眼看不过来 → 所以科学家就请来了各种“AI助手”来帮忙分析。
✅ 下面是一张“小白友好版”表格:
| AI方法名字 | 实际上它是干啥的?(大白话) | 生活中的类比 | 在空间转录组里怎么用? |
|---|---|---|---|
| 图神经网络 (GNN) | 让每个细胞学会“参考邻居”来认识自己 | 就像你在新班级,通过观察同桌和前后桌的性格,猜自己属于哪个小圈子 | 把所有细胞连成一张网,让每个细胞根据周围细胞调整自己的身份判断(比如确认自己是不是在肿瘤区) |
| 图卷积网络 (GCN) | GNN的一种简单版本:平均听取所有邻居意见 | 开班会时每人一票,民主投票决定小组风格 | 快速粗略地把相似细胞聚在一起,适合初步分区 |
| 图注意力网络 (GAT) | 更聪明的GNN:能自动判断哪个邻居更重要 | 你不听所有人的话,只信班长和学霸的意见 | 发现关键细胞(如“指挥官细胞”),识别复杂的细胞通讯关系 |
| Transformer / 自注意力 | 让任意两个细胞可以直接对话,不管离得多远 | 即使你在第一排,也能直接问最后一排的同学问题,不用传话 | 分析整个组织的大结构(比如左右脑对称性),或者结合图像一起看 |
| 对比学习 | 不需要老师教,自己从数据中学规律 | 自己看一堆照片,慢慢学会区分猫和狗,哪怕没人告诉你名字 | 用大量未标注的数据训练模型,让它学会“什么样的细胞长得像” |
| 扩散模型 | 给模糊的照片“修图”变清晰 | 把一张噪点多的老照片,AI修复成高清图 | 修复质量差的空间数据(比如信号弱、有缺失的地方) |
| 经典统计模型 | 老派但靠谱的方法,每一步都说得清楚 | 像数学考试写步骤:因为A,所以B,过程可查 | 找出哪些基因是有空间规律的(比如只在边缘表达),并给出p值证明不是偶然 |
| 自编码器 | 给数据“压缩打包”再还原,提取核心特征 | 把一本厚书总结成几句话摘要,需要时再扩展回来 | 把几千个基因的信息压缩成几个关键数字,方便后续分析 |
| 深度学习 | 所有这些复杂神经网络的总称 | 就像“智能手机”是总称,下面有华为、苹果等各种型号 | 是所有AI方法的基础平台,用来搭建上面那些工具 |
💡 举个完整例子:你想找“肿瘤核心区”
- 原始数据很乱→ 用扩散模型去噪、补全。
- 每个spot(点)是一个细胞群 → 用自编码器降维,提取主要特征。
- 构建细胞之间的“邻里关系图” → 用GAT分析,看看谁跟谁关系密切。
- 使用对比学习预训练模型,让它先学会“认细胞脸”。
- 最后用Transformer全局扫描,发现那个特别的区域——原来是肿瘤核心区!
✅ 总结一句话(超级简化版):
这些AI技术就像是不同的“助手”:
- 有的负责整理数据(去噪、压缩),
- 有的负责看位置关系(谁挨着谁),
- 有的擅长全局观察(一眼看全貌),
- 有的追求科学严谨(要能解释为什么),
它们合作起来,帮科学家从复杂的空间数据中,找出重要的生物学规律。