归一化流:原理与应用
立即解锁
发布时间: 2025-08-31 00:05:18 阅读量: 18 订阅数: 16 AIGC 

### 归一化流:原理与应用
#### 1. 引言
在机器学习领域,生成模型是一个重要的研究方向。之前有生成对抗网络(GANs),它通过将潜在变量传递通过深度网络来创建新样本,训练原则是使生成样本与真实数据难以区分。然而,GANs 并未定义数据示例上的分布,因此评估新示例属于同一数据集的概率并不直接。本文将介绍归一化流,它通过深度网络将简单分布转换为更复杂的分布来学习概率模型,既能从该分布中采样,又能评估新示例的概率,但需要特殊架构,即每层都必须可逆。
#### 2. 一维示例
归一化流是概率生成模型,它将概率分布拟合到训练数据上。以一维分布 Pr(x) 建模为例,归一化流从潜在变量 z 上的简单易处理的基础分布 Pr(z) 开始,应用函数 x = f[z, ϕ],其中参数 ϕ 的选择使得 Pr(x) 具有所需的分布。
##### 2.1 测量概率
测量数据点 x 的概率更具挑战性。对已知密度 Pr(z) 的随机变量 z 应用函数 f[z, ϕ] 时,函数拉伸的区域概率密度会降低,压缩的区域概率密度会增加,以保证新分布下的面积仍为 1。函数 f[z, ϕ] 拉伸或压缩输入的程度取决于其梯度大小。具体而言,变换后分布下数据 x 的概率为:
\[Pr(x|\phi) = \left|\frac{\partial f[z, \phi]}{\partial z}\right|^{-1} \cdot Pr(z)\]
其中 z = f⁻¹[x, ϕ] 是生成 x 的潜在变量,Pr(z) 是基础密度下该潜在变量的原始概率,概率会根据函数导数的大小进行调整。
##### 2.2 正向和反向映射
从分布中采样需要正向映射 x = f[z, ϕ],而测量似然性需要计算反向映射 z = f⁻¹[x, ϕ]。因此,需要谨慎选择 f[z, ϕ] 以确保其可逆。正向映射有时也称为生成方向,基础密度通常选择为标准正态分布,反向映射则称为归一化方向,因为它将 x 上的复杂分布转换为 z 上的正态分布。
##### 2.3 学习
为了学习分布,需要找到参数 ϕ 来最大化训练数据 {xi} 的似然性,或者等效地最小化负对数似然性:
\[\hat{\phi} = \arg\max_{\phi} \left[\prod_{i=1}^{I} Pr(x_i|\phi)\right] = \arg\min_{\phi} \left[\sum_{i=1}^{I} -\log\left[Pr(x_i|\phi)\right]\right] = \arg\min_{\phi} \left[\sum_{i=1}^{I} \log\left|\frac{\partial f[z_i, \phi]}{\partial z_i}\right| - \log\left[Pr(z_i)\right]\right]\]
这里假设数据是独立同分布的。
#### 3. 一般情况
前面的一维示例通过将更简单的基础密度 Pr(z) 进行变换来建模概率分布 Pr(x),现在将其扩展到多元分布 Pr(x) 和 Pr(z),并且变换由深度神经网络定义。
对具有基础密度 Pr(z) 的随机变量 z ∈ Rᴰ 应用函数 x = f[z, ϕ](f[z, ϕ] 是深度网络),得到的变量 x ∈ Rᴰ 具有新的分布。从该分布中抽取新样本 x* 的步骤为:
1. 从基础密度中抽取样本 z*。
2. 将 z* 通过神经网络,使得 x* = f[z*, ϕ]。
类似一维情况,样本在该分布下的似然性为:
\[Pr(x|\phi) = \left|\frac{\partial f[z, \phi]}{\partial z}\right|^{-1} \cdot Pr(z)\]
其中 z = f⁻¹[x, ϕ] 是生成 x 的潜在变量。第一项是 D × D 雅可比矩阵 ∂f[z, ϕ]/∂z 行列式的倒数,第二项是基础密度下潜在变量的概率。
##### 3.1 深度神经网络的正向映射
在实践中,正向映射 f[z, ϕ] 通常由神经网络定义,由一系列具有参数 ϕₖ 的层 fₖ[•, ϕₖ] 组成,复合形式为:
\[x = f[z, \phi] = f_K\left[f_{K - 1}\left[\cdots f_2\left[f_1[z, \phi_1], \phi_2\right], \cdots \phi_{K - 1}\right], \phi_K\right]\]
反向映射(归一化方向)由每层的逆函数按相反顺序复合定义:
\[z = f^{-1}[x, \phi] = f_1^{-1}\left[f_2^{-1}\left[\cdots f_{K - 1}^{-1}\left[f_K^{-1}[x, \phi_K], \phi_{K - 1}\right], \cdots \phi_2\right], \phi_1\right]\]
基础密度 Pr(z) 通常定义为多元标准正态分布,后续每个逆层的作用是逐渐将数据密度“流动”向该正态分布,这就是“归一化流”名称的由来。
正向映射的雅可比矩阵可以表示为:
\[\frac{\partial f[z, \phi]}{\partial z} = \frac{\partial f_K[f_{K - 1}, \phi_K]}{\partial f_{K - 1}} \cdot \frac{\partial f_{K - 1}[f_{K - 2}, \phi_{K - 1}]}{\partial f_{K - 2}} \cdots \frac{\partial f_2[f_1, \phi_2]}{\partial f_1} \cdot \frac{\partial f_1[z, \phi_1]}{\partial z}\]
其雅可比矩阵的绝对行列式可以通过各个绝对行列式的乘积来计算。
使用负对数似然性准则对归一化流进行训练:
\[\hat{\phi} = \arg\max_{\phi} \left[\prod_{i=1}^{I} Pr(z_i) \cdot \left|\frac{\partial f[z_i, \phi]}{\partial z_i}\right|^{-1}\right] = \arg\min_{\phi} \left[\sum_{i=1}^{I} \log\left|\frac{\partial f[z_i, \phi]}{\partial z_i}\right| - \log\left[Pr(z_i)\right]\right]\]
其中 zᵢ = f⁻¹[xᵢ, ϕ],Pr(zᵢ) 在基础分布下测量,绝对行列式 |∂f[zᵢ, ϕ]/∂zᵢ| 由上述公式给出。
##### 3.2 网络层的要求
归一化流的理论很直接,但要使其实用,神经网络层 fₖ 需要具备以下四个属性:
1. 网络层集合必须具有足够的表达能力,能够将多元标准正态分布映射到任意密度。
2. 网络层必须可逆,每个层必须定义从任何输入点到输出点的唯一一对一映射(双射)。
3. 必须能够高效地计算每层的逆。
4. 必须能够高效地评估正向或反向映射的雅可比矩阵的行列式。
#### 4. 可逆网络层
接下来介绍用于这些模型的不同可逆网络层或流。
##### 4.1 线性流
线性流的形式为 f[h] = β + Ωh。如果矩阵 Ω 可
0
0
复制全文
相关推荐








