2495 words
12 minutes
时空专题4_时空组细胞分群算法原理与思想

❗ 时空组细胞分群算法原理、思想及应用#

🔑 Key Points#

空间转录组数据可以同时提供高通量基因表达谱和组织的空间结构。 细胞分群是空间转录组数据分析的重要一步,也是下游深入分析的基础。后续研究诸如细胞类型注释、差异表达等均依赖于有效的分群。

基本思想: 细胞分群是一个把细胞集合划分成子集的过程,每个子集是一个簇,使得簇中的对象彼此相似,但与其他簇中对象彼此相异。 基本原则: 使簇内的相似性最大, 而簇间的相似性最小

❓ Questions#

NOTE

针对空间转录组, 如何更好的结合基因表达信息和空间位置信息, 以进一步挖掘计算细胞间的相似性是最主要的问题

📃 Summary of Notes#

基于传统机器学习的方法#

k-means 聚类#

  • 应用: 细胞分群

    选择较大的 k 值, 会提高分群的准确度, 但同时会增大过拟合的风险

开始

选定k个细胞初始化k个簇

计算每个细胞到聚类中心的距离

将每个细胞分配到距离最短的中心所在的簇

利用均值等方法更新每个簇的中心

簇是否发生变化?

停止

  • 优点:
    1. 易理解,聚类效果好;
    2. 处理大数据集时,能保证较好的伸缩性;
    3. 当簇近似高斯分布的时候,效果非常好;
    4. 算法复杂度低。
  • 缺点:
    1. K 值需要人为设定,且对 K 值敏感;
    2. 对初始质心(簇摩泽华绩准斯瘊图谱研窈值敏感;
    3. 不适合太离散的,样本类别不平衡的,非凸形状的聚类;
    4. 算法聚类时,容易产生空簇;
    5. 算法可能收敛到局部最小值.

Louvain#

  • 应用: 细胞分群, 社区发现

开始

对每个节点用一个唯一的社区初始化

模块化优化

随机排序网络中的所有节点

逐个删除并在不同的社区中插入每个节点

验证模块度是否显著增加

社区聚集

将属于同一社区的所有节点合并为一个巨型节点

模块度是否增加

停止

模块度定义:

H=12mc[ecγkc22m]H=\frac{1}{2m}\sum_c\left[ e_c-\gamma\frac{k_c^2}{2m} \right]

其中 m 为总边数, ece_c为社区 C 内的边数, kck_c为社区 C 中节点数的和, γ\gamma为参数分辨率 此公式的问题: 分辨率越高社区越多, 分辨率越低社区越少

  • 优点
    • 快速, 准确
  • 缺点
    • 社区划分的精确度有限
    • 分群内细胞分布密度大小会影响亚群的鉴定
    • 被鉴定为同一个分群的细胞内群体会存在两个没有连线的小分群

Leiden#

模块度定义:

H=c[ecγ(nc2)]H=\sum_c\left[e_c-\gamma\left(\begin{align}&n_c\\&2\end{align}\right)\right]

其中社区内的密度至少为γ\gamma, 而社区间的密度不能超过γ\gamma, 解决 Louvain 中”分辨率越高社区越多, 分辨率越低社区越少”的问题

开始

初始社区分配

基于模块度优化初步合并

细化合并社区

根据Fine-tuning算法优化社区

社区是否稳定

结束

重新分配社区

基于模块度优化再合并

  • 优点: 运行速度比 Louvain 更快, 获得的集群可用性更高
  • 缺点: 仍旧依赖在局部移动节点以分配簇的贪婪步骤, 容易陷入局部最优解

基于神经网络的方法#

SpaGCN#

算法:

  • 首先,基于 xyz 坐标计算点之间的欧式距离(Z:H&E 图像三通道的加权平均)。
  • 然后,利用高斯过程模型中常用的协方差矩阵约束空间邻域图中边的权值与距离呈高斯核负相关。
  • 最后,利用卷积层将基因表达矩阵的前 50 个 PCs 与该空间邻域图融合,并对其输出进行 Louvain 聚类和迭代精化,来识别空间区域。 优缺点:
  • 优点:在训练过程中,通过动态地更新图中边的权重,来更好地聚合邻域基因表达信息。(所有神经网络方法都有的优点)
  • 缺点:基因表达的低维嵌入主要由 PCA 获得,因此空间域的检测主要还是由基因表达驱动,可能会在检测区域与底层组织解剖结构之间产生差异。

CCST#

应用

  • 细胞分群
  • 细胞亚型发现 算法
    1. 构建邻接矩阵。先根据细胞的 xy 坐标计算细胞之间的距离并用其构建邻接矩阵,其中当两个点的距离小于某个值时,邻接值为 1,否则为 0。再加上加权单位矩阵获得最终的邻接矩阵。
    1. 通过一个图对比学习方法 DGI 提取细胞低维嵌入,其中,通过最大化节点级特征和图级特征的互信息优化模型
    1. 将模型输出的嵌入用于后续的聚类和分析

img

优点

  • 对比学习与聚类的指导原则一致,都是最小化相似点间的距离,最大化不相似点间的距离,因此有利于分群任务。
  • DGI 的损失函数中进一步考虑了全局的结构信息。 缺点
  • 是图对比学习由于需要挖掘负样本,空间使用率高

基于概率图模型的方法#

BayesSpace#

应用:

  • 细胞分群
  • 提高 ST 数据分辨率 算法:
    1. 利用 PCA 等方法将 ST 或 Visium 数据投影到低维空间。
    1. 对于每个点,用一个带有预定义簇数量的高斯混合模型建模该点的低维投影。对于 ST 数据,空间邻域图为正方形点网格,对于 Visium 数据,空间邻域图为六边形网格。
    1. 利用马尔可夫随机场 MRF 先验鼓励相邻点分配到同一簇。 优点:不需要独立的单细胞数据 缺点:仅考虑了 ST 和 Visium 平台的数据中存在的邻域结构

DR-SC#

应用:

  • 细胞分群
  • 轨迹推断 算法:
  • DR step: 利用 PCA 等算法降维
  • SC step: 利用 BayesSpace 进行空间聚类
  • 将上述两步骤统一,并利用期望最大化(EM)算法通过最小化图中的公式由上一步得到的簇估计进一步优化降维和聚类 优点:它能端到端地进行特征降维和聚类 缺点:EM 算法本质上是非凸的,易陷入局部最优解

分群效果评估#

指标#

外部指标:#

需要一个参考模型,这个参考模型通常是由专家给定的,或者是公认的参考模型比如公开数据集(有标签的、人工标准或基于一种理想的聚类结果),通过将聚类算法的聚类结果和已知的相比,从而衡量设计的聚类算法的性能、优劣。

调整兰德指数(ARI)#
  • 测量两个聚类分配的相似性
  • 取值范围为[-1,1],越接近 1 越好
  • 计算 ARI 的值需要先计算出列联表 Y1Y2YsSumsX1n11n12n1sa1X2n21n22n2sa2Xrnr1nr2nrsarSumsb1b2bs\begin{array}{c|cccc|c} & Y_1 & Y_2 & \cdots & Y_s & \text{Sums} \\ \hline X_1 & n_{11} & n_{12} & \cdots & n_{1s} & a_1 \\ X_2 & n_{21} & n_{22} & \cdots & n_{2s} & a_2 \\ \vdots & \vdots & \vdots & \ddots & \vdots & \vdots \\ X_r & n_{r1} & n_{r2} & \cdots & n_{rs} & a_r \\ \hline \text{Sums} & b_1 & b_2 & \cdots & b_s & \end{array} 其中, X={X1,X2,,Xr}X = \{X_1, X_2, \ldots, X_r\} 表示真实的簇,Y={Y1,Y2,,Ys}Y = \{Y_1, Y_2, \ldots, Y_s\} 表示聚类得到的簇,nijn_{ij} 表示同时时位于簇 XiX_iYiY_i 的细胞个数 Adjusted Index (ARI)=ij(nij2)Index[i(ai2)j(bj2)]/(n2)Expected Index12[i(ai2)+j(bj2)]Max Index[i(ai2)j(bj2)]/(n2)Expected Index\text{Adjusted Index (ARI)} = \frac{\overbrace{\sum_{ij} \binom{n_{ij}}{2}}^{\text{Index}} - \overbrace{\left[ \sum_i \binom{a_i}{2} \sum_j \binom{b_j}{2} \right] / \binom{n}{2}}^{\text{Expected Index}}}{\underbrace{\frac{1}{2} \left[ \sum_i \binom{a_i}{2} + \sum_j \binom{b_j}{2} \right]}_{\text{Max Index}} - \underbrace{\left[ \sum_i \binom{a_i}{2} \sum_j \binom{b_j}{2} \right] / \binom{n}{2}}_{\text{Expected Index}}} 其中 (np)=n!(np)!p!\binom{n}{p} = \frac{n!}{(n-p)! p!}
归一化互信息(NMI)#
  • 测量两个聚类分配的相似性
  • 取值范围为 [0,1][0, 1],越接近 1 越好
  • 公式如下: NMI(X,Y)=I(X;Y)(H(X)+H(Y))/2NMI(X, Y) = \frac{I(X; Y)}{(H(X) + H(Y))/2} I(X;Y)=ijP(xiyj)logP(xiyj)P(xi)P(cj)=ijxiyjNlogNxiyjxiyjI(X; Y) = \sum_i \sum_j P(x_i \cap y_j) \log \frac{P(x_i \cap y_j)}{P(x_i) P(c_j)} = \sum_i \sum_j \frac{|x_i \cap y_j|}{N} \log \frac{N |x_i \cap y_j|}{|x_i| |y_j|} H(X)=iP(xi)logP(xi)=ixiNlogxiNH(X) = - \sum_i P(x_i) \log P(x_i) = - \sum_i \frac{|x_i|}{N} \log \frac{|x_i|}{N}
Fowlkes - Mallows index (FMI)#
  • 测量两个聚类分配的相似性
  • 取值范围为 [0, 1],越接近 1 越好
  • 公式如下: FMI=TP(TP+FP)(TP+FN)FMI = \frac{TP}{\sqrt{(TP + FP)(TP + FN)}}

    True Positive (TP): 真实簇和生成簇中属于同一簇的数量 False Positive (FP): 在真实簇而不在生成簇的数量 False Negative (FN): 不在真实簇而在生成簇的数量

内部指标:#

不需要基准数据集,不需要借助于外部参考,只考虑聚类之后这些簇之间的效果,通常利用样本数据集巾样本点与聚类中心之间的距离来衡量聚类结果的优劣。

  • CH 指标
  • 轮廓系数
  • DB 指标
  • 簇内平方和
时空专题4_时空组细胞分群算法原理与思想
https://blog.lihuax.online/posts/work/bgi/4_时空组细胞分群算法原理思想及应用/
Author
Lihuax
Published at
2024-07-19
License
CC BY-NC-SA 4.0