格拉姆矩阵(Gram matrix)详细解读

目录

  • 基础知识-向量的内积
  • Gram matrix介绍
  • Gram matrix的应用-风格迁移

一、基础知识-向量的内积

1.1 向量的内积定义:也叫向量的点乘,对两个向量执行内积运算,就是对这两个向量对应位一一相乘之后求和的操作,内积的结果是一个标量。

1.2 实例

a和b的内积公式为:

1.3 作用

内积判断向量a和向量b之间的夹角和方向关系

  • a·b>0    方向基本相同,夹角在0°到90°之间
  • a·b=0    正交,相互垂直  
  • a·b<0    方向基本相反,夹角在90°到180°之间 

Gram矩阵是两两向量的内积组成,所以Gram矩阵可以反映出该组向量中各个向量之间的某种关系

二、Gram matrix介绍

2.1 定义

n维欧式空间中任意k个向量之间两两的内积所组成的矩阵,称为这k个向量的格拉姆矩阵(Gram matrix),很明显,这是一个对称矩阵。

更加直观的理解:

2.2 计算和特征表示

输入图像的feature map为[ ch, h, w]。我们经过flatten(即是将h*w进行平铺成一维向量)和矩阵转置操作,可以变形为[ ch, h*w]和[ h*w, ch]的矩阵。再对两个作内积得到Gram Matrices。 (蓝色条表示每个通道flatten后特征点,最后得到 [ch *ch ]的G矩阵)

2.3 进一步理解

格拉姆矩阵可以看做feature之间的偏心协方差矩阵(即没有减去均值的协方差矩阵),在feature map中,每个数字都来自于一个特定滤波器在特定位置的卷积,因此每个数字代表一个特征的强度,而Gram计算的实际上是两两特征之间的相关性,哪两个特征是同时出现的,哪两个是此消彼长的等等。

格拉姆矩阵用于度量各个维度自己的特性以及各个维度之间的关系。内积之后得到的多尺度矩阵中,对角线元素提供了不同特征图各自的信息,其余元素提供了不同特征图之间的相关信息。这样一个矩阵,既能体现出有哪些特征,又能体现出不同特征间的紧密程度。

关键点:gram矩阵是计算每个通道 i 的feature map与每个通道 j 的feature map的内积。gram matrix的每个值可以说是代表 I 通道的feature map与 j 通道的feature map的互相关程度。

三、Gram matrix的应用-风格迁移

深度学习中经典的风格迁移大体流程是:

1. 准备基准图像和风格图像

2. 使用深层网络分别提取基准图像(加白噪声)和风格图像的特征向量(或者说是特征图feature map)

3. 分别计算两个图像的特征向量的Gram矩阵,以两个图像的Gram矩阵的差异最小化为优化目标,不断调整基准图像,使风格不断接近目标风格图像

关键的一个是在网络中提取的特征图,一般来说浅层网络提取的是局部的细节纹理特征,深层网络提取的是更抽象的轮廓、大小等信息。这些特征总的结合起来表现出来的感觉就是图像的风格,由这些特征向量计算出来的的Gram矩阵,就可以把图像特征之间隐藏的联系提取出来,也就是各个特征之间的相关性高低。

如果两个图像的特征向量的Gram矩阵的差异较小,就可以认定这两个图像风格是相近的。有了表示风格的Gram Matrix,要度量两个图像风格的差异,只需比较他们Gram Matrix的差异即可。

具体可见另一篇文章《风格迁移论文理解--A Neural Algorithm of Artistic Style》展开的介绍。

附件:手写图例辅助理解:

### GRAM矩阵的概念 GRAM矩阵是一种在线性代数中广泛使用的工具,其核心思想是对一组向量计算它们两两之间的内积。对于给定的一组列向量 \( \{v_1, v_2, ..., v_n\} \)GRAM矩阵定义为这些向量之间所有可能的内积组合形成的矩阵: \[ G_{ij} = \langle v_i, v_j \rangle \] 其中 \( \langle v_i, v_j \rangle \) 表示向量 \( v_i \) 和 \( v_j \) 的内积[^4]。 --- ### GRAM矩阵的计算方法 假设有一个矩阵 \( A \in \mathbb{R}^{m \times n} \),它的每一列表示一个向量,则该矩阵对应的GRAM矩阵可以通过如下方式计算: \[ G = A^T A \] 这里 \( A^T \)矩阵 \( A \) 的转置矩阵。通过这种运算,我们可以快速获得每一对列向量之间的内积结果。 #### Python实现GRAM矩阵 以下是基于Python的一个简单实现例子: ```python import numpy as np def compute_gram_matrix(A): """ 计算输入矩阵A的Gram矩阵。 参数: A (numpy.ndarray): 输入矩阵 返回: numpy.ndarray: Gram矩阵 """ return np.dot(A.T, A) # 示例 A = np.array([[1, 2], [3, 4]]) G = compute_gram_matrix(A) print("Matrix A:") print(A) print("\nGram Matrix of A:") print(G) ``` 上述代码展示了如何利用NumPy库中的 `np.dot` 函数来高效地完成GRAM矩阵的计算。 --- ### GRAM矩阵的应用场景 1. **特征提取与表示** 在计算机视觉领域,GRAM矩阵被用来捕捉图像的不同区域或通道之间的关系。通过对卷积神经网络(CNN)中间层的激活图计算GRAM矩阵,可以获得关于图像风格的信息。 2. **最小二乘法优化** 当解决超定方程组时(即未知参数少于约束条件),GRAM矩阵常用于构建正规方程。例如,在直线拟合问题中,\( X^T X \beta = X^T y \) 中的 \( X^T X \) 就是一个典型的GRAM矩阵形式[^3]。 3. **正交化过程辅助** 在格拉姆-施密特正交化过程中,GRAM矩阵可以帮助验证当前基底是否已经标准化,并指导后续调整方向[^2]。 --- ### 线性代数视角下的意义 从线性变换的角度来看,如果矩阵 \( Q \) 是由标准正交基构成的标准正交矩阵,则有 \( Q^T Q = I \),这实际上也是GRAM矩阵的一种特殊情形——此时GRAM矩阵退化成了单位矩阵。因此,GRAM矩阵不仅能够反映一般情况下各维度间的关系强度,还能作为衡量空间结构的重要指标。 ---
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值