Factor Analysis

因子分析是一种数据简化的技术,通过研究变量间的内部依赖关系,寻找潜在的因子来表示数据的基本结构。当训练样例个数远小于特征个数时,传统的参数估计方法会遇到问题。因子分析模型认为高维数据可以由低维空间的随机变量通过仿射变换和随机误差生成。EM算法用于求解因子分析的参数估计。因子分析与主成分分析不同,因子更抽象,主成分分析仅是变量变换。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

这应该是学ML以来推导过的最痛苦的算法了,所以我想先用直观的语言描述什么是Factor analysis

因子分析(factor analysis)是一种数据简化的技术。它通过研究众多变量之间的内部依赖 关系,探求观测数据中的基本结构,并用少数几个假想变量来表示其基本的数据结构。这几 个假想变量能够反映原来众多变量的主要信息。原始的变量是可观测的显在变量,而假想变量是不可观测的潜在变量,称为因子。

由于存在隐变量,同时不能由MLE得到close form,因此很自然的想到了之前提到的EM算法。本文主要用EM算法推到因子分析的参数估计过程。

问题

之前我们考虑的训练数据中样例x (?) 的个数 m 都远远大于其特征个数 n,这样不管是 行回归、聚类等都没有太大的问题。然而当训练样例个数 m 太小,甚至 m<<n 的时候,使 用梯度下降法进行回归时,如果初值不同,得到的参数结果会有很大偏差(因为方程数小于 参数个数)。另外,如果使用多元高斯分布(Multivariate Gaussian distribution)对数据进行拟合 时,也会有问题。

例如,多元高斯分布的参数估计如下:
μ=1m∑i=1mx(i)Σ=1m∑i=1m(x(i)−μ)(x(i)−μ)T \begin{array}{c}{\mu=\frac{1}{m} \sum_{i=1}^{m} x^{(i)}} \\ {\Sigma=\frac{1}{m} \sum_{i=1}^{m}\left(x^{(i)}-\mu\right)\left(x^{(i)}-\mu\right)^{T}}\end{array} μ=m1i=1mx(i)Σ=m1i=1m(x(i)μ)(x(i)μ)T
分别是求 mean 和协方差的公式,x 是 n 维向量,Σ\SigmaΣ是 n*n 协方差矩阵。

当 m<<n 时,我们会发现Σ\SigmaΣ是奇异阵( |Σ\SigmaΣ| = 0),也就是说Σ−1\Sigma^{-1}Σ1 不存在,没办法拟合出多元高斯分布了,确切的说是我们估计不出来Σ\SigmaΣ

因此,我们可以对Σ\SigmaΣ进行限制,从而使得其可逆。最简单的想法就是使得Σ\SigmaΣ变为对角矩阵,但这样有很大的坏处

:这样的假设意味着特征间相互独立,表示在图上就是contour的各个维度与坐标轴平行。

Preliminary

首先不加证明的给出几个结论

  1. x=[x1x2]x=\left[ \begin{array}{l}{x_{1}} \\ {x_{2}}\end{array}\right]x=[x1x2]x∼N(μ,Σ)x \sim \mathcal{N}(\mu, \Sigma)xN(μ,Σ),其中μ=[μ1μ2],Σ=[Σ11Σ12Σ21Σ22]\mu=\left[ \begin{array}{c}{\mu_{1}} \\ {\mu_{2}}\end{array}\right], \quad \Sigma=\left[ \begin{array}{cc}{\Sigma_{11}} &amp; {\Sigma_{12}} \\ {\Sigma_{21}} &amp; {\Sigma_{22}}\end{array}\right]μ=[μ1μ2],Σ=[Σ11Σ21Σ12Σ22]

  2. 求条件概率x1∣x2∼N(μ1∣2,Σ1∣2)x_{1} | x_{2} \sim \mathcal{N}\left(\mu_{1|2}, \Sigma_{1 | 2}\right)x1x2N(μ12,Σ12)

    • μ1∣2=μ1+Σ12Σ22−1(x2−μ2)Σ1∣2=Σ11−Σ12Σ22−1Σ21 \begin{aligned} \mu_{1|2} &amp;=\mu_{1}+\Sigma_{12} \Sigma_{22}^{-1}\left(x_{2}-\mu_{2}\right) \\ \Sigma_{1 | 2} &amp;=\Sigma_{11}-\Sigma_{12} \Sigma_{22}^{-1} \Sigma_{21} \end{aligned} μ12Σ12=μ1+Σ12Σ221(x2μ2)=Σ11Σ12Σ221Σ21

Factor analysis model

思想

因子分析的实质是认为 m 个 n 维特征的训练样例X(i)(x1(i),x2(i),…,xn(i))\mathrm{X}^{(i)}\left(x_{1}^{(i)}, x_{2}^{(i)}, \ldots, x_{n}^{(i)}\right)X(i)(x1(i),x2(i),,xn(i))的产生过程:

  1. 首先在一个k维空间中按照多元高斯分布生成m个ziz^{i}zi的k维向量,即:

    • z(i)∼N(0,I)z^{(i)} \sim N(0, I)z(i)N(0,I)
  2. 然后定义一个变换矩阵Λ∈Rn×k\Lambda \in \mathbb{R}^{\mathrm{n} \times \mathrm{k}}ΛRn×k,将z映射到n维空间中,即:

    • Λz(i)\Lambda z^{(i)}Λz(i)
  3. 然后将Λz(i)​\Lambda z^{(i)}​Λz(i)加上一个均值μ​\mu​μ,即:

    • μ+Λz(i)\mu+\Lambda z^{(i)}μ+Λz(i)

    • 对应的意义是将变换后的Λz(i)\Lambda z^{(i)}Λz(i)(n 维向量)移动到样本的中心点μ\muμ

  4. 最后再加入一个噪声ϵ∼N(0,Ψ)\epsilon \sim N(0, \Psi)ϵN(0,Ψ),从而得到:

    • x(i)=μ+Λz(i)+ϵ\mathrm{x}^{(i)}=\mu+\Lambda z^{(i)}+\epsilonx(i)=μ+Λz(i)+ϵ

这个过程的直观解释是:在低维空间中的随机变量,通过一个仿射变换映射到样本的高维空间,然后再加入随机误差生成。因此,高维数据可以使用低维数据表示。

联合分布

我们可以通过之前的结论得到隐变量和目标变量的联合分布:
[zx]∼N(μzx,Σ) \left[ \begin{array}{l}{z} \\ {x}\end{array}\right] \sim \mathcal{N}\left(\mu_{z x}, \Sigma\right) [zx]N(μzx,Σ)
不难求得:
μzx=[0→μ] \mu_{z x}=\left[ \begin{array}{c}{\overrightarrow{0}} \\ {\mu}\end{array}\right] μzx=[0μ]

Σ=[IΛTΛΛΛT+Ψ] \Sigma = \left[ \begin{array}{cc}{I} &amp; {\Lambda^{T}} \\ {\Lambda} &amp; {\Lambda \Lambda^{T}+\Psi}\end{array}\right] Σ=[IΛΛTΛΛT+Ψ]

因此MLE为:
ℓ(μ,Λ,Ψ)=log⁡∏i=1m1(2π)n/2∣ΛΛT+Ψ∣1/2exp⁡(−12(x(i)−μ)T(ΛΛT+Ψ)−1(x(i)−μ)) \ell(\mu, \Lambda, \Psi)=\log \prod_{i=1}^{m} \frac{1}{(2 \pi)^{n / 2}\left|\Lambda \Lambda^{T}+\Psi\right|^{1 / 2}} \exp \left(-\frac{1}{2}\left(x^{(i)}-\mu\right)^{T}\left(\Lambda \Lambda^{T}+\Psi\right)^{-1}\left(x^{(i)}-\mu\right)\right) (μ,Λ,Ψ)=logi=1m(2π)n/2ΛΛT+Ψ1/21exp(21(x(i)μ)T(ΛΛT+Ψ)1(x(i)μ))

很显然,直接求解这个式子是困难的,因此我们可以使用EM算法。

EM估计

求解过程相当繁琐,大家可以自行参考CS229的官方notes。这里只给出参数估计:
Λ=(∑i=1m(x(i)−μ)Ez(i)∼Qi[z(i)T])(∑i=1mEz(i)∼Qi[z(i)z(i)T])−1 \Lambda=\left(\sum_{i=1}^{m}\left(x^{(i)}-\mu\right) \mathrm{E}_{z^{(i)} \sim Q_{i}}\left[z^{(i)^{T}}\right]\right)\left(\sum_{i=1}^{m} \mathrm{E}_{z^{(i)} \sim Q_{i}}\left[z^{(i)} z^{(i)^{T}}\right]\right)^{-1} Λ=(i=1m(x(i)μ)Ez(i)Qi[z(i)T])(i=1mEz(i)Qi[z(i)z(i)T])1
实际上,我们对这个仿射变换的矩阵的估计,很类似于最小二乘的结果:θT=(yTX)(XTX)−1\theta^{T}=\left(y^{T} X\right)\left(X^{T} X\right)^{-1}θT=(yTX)(XTX)1

这是因为,我们希望通过这个矩阵得到z和x的线性关系,因此直观的可以认为其想法类似。

同时可求得其他的参数:
μ=1m∑i=1mx(i) \mu=\frac{1}{m} \sum_{i=1}^{m} x^{(i)} μ=m1i=1mx(i)

Φ=1m∑i=1mx(i)x(i)T−x(i)μz(i)∣x(i)TΛT−Λμz(i)∣x(i)x(i)T+Λ(μz(i)∣x(i)μz(i)∣x(i)T+Σz(i)∣x(i))ΛT \Phi=\frac{1}{m} \sum_{i=1}^{m} x^{(i)} x^{(i) T}-x^{(i)} \mu_{z^{(i)}\left|x^{(i)}\right.}^{T} \Lambda^{T}-\Lambda \mu_{z^{(i)} | x^{(i)}} x^{(i)^{T}}+\Lambda\left(\mu_{z^{(i)}\left|x^{(i)}\right.} \mu_{z^{(i)}\left|x^{(i)}\right.}^{T}+\Sigma_{z^{(i)} | x^{(i)}}\right) \Lambda^{T} Φ=m1i=1mx(i)x(i)Tx(i)μz(i)x(i)TΛTΛμz(i)x(i)x(i)T+Λ(μz(i)x(i)μz(i)x(i)T+Σz(i)x(i))ΛT

思考

因子分析与回归分析不同,因子分析中的因子是一个比较抽象的概念,而回归因子有 非常明确的实际意义;

主成分分析分析与因子分析也有不同,主成分分析仅仅是变量变换,而因子分析需要构造因子模型。

主成分分析:原始变量的线性组合表示新的综合变量,即主成分;

因子分析:潜在的假想变量和随机影响变量的线性组合表示原始变量。

Reference

  1. An Introduction to Probabilistic Graphical Models by Jordan Chapter 14
  2. CS229
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值