活动介绍

三元LWE的量子密钥搜索

立即解锁
发布时间: 2025-08-31 01:10:27 阅读量: 10 订阅数: 24 AIGC
# 三元LWE的量子密钥搜索 ## 1. 预备知识 ### 1.1 LWE密钥 我们仅考虑三元LWE密钥,其定义如下: - **定义1(三元LWE密钥)**:LWE密钥由三个公共参数 $q$、$A \in Z_q^{m\times n}$、$b \in Z_q^m$ 以及两个秘密参数 $s \in Z_q^n$ 和(误差)$e \in Z_q^m$ 组成,满足等式 $As = b + e \mod q$。若 $\|s\|_{\infty} = \|e\|_{\infty} = 1$,则称 $s$ 和 $e$ 为三元密钥。用 $T^n$ 表示 $n$ 维三元密钥的集合。在本文中,我们仅考虑三元密钥 $s$、$e$ 以及 $m = n$ 的方阵 $A$。 - **定义2(权重)**:设 $s = (s_1, ..., s_n)$ 是 $F^n$ 中的向量,该向量 $s$ 的权重 $w$ 定义为其汉明权重 $w = \sum_{s_i \neq 0} 1$。相对于 $n$,我们还定义相对权重 $\omega = w/n$,其中 $0 \leq \omega \leq 1$。具有偶数个 $\pm1$ 元素(各为 $w/2$ 个)的三元权重 - $w$ 密钥集合记为 $T^n(w/2)$。 当前的安全分析表明,最优相对权重范围为 $\omega \in [1/3, 2/3]$,对于NTRU类型的方案,$\omega = 3/8$ 和 $\omega = 1/2$ 是突出的选择。 我们使用以下标准公式来近似三元密钥的搜索空间 $S$,该公式在一个小多项式因子 $1/\sqrt{n}$ 内成立,一般在本文中我们忽略小多项式因子。 - **引理1(多项式近似)**:设 $D = \{d_1, ..., d_k\} \subset Z_q$ 是一个基数为 $k$ 的数字集。$Z_q^n \cap D^n$ 中恰好有 $c_in$ 个 $d_i$ 元素($\sum_{i = 1}^k c_i = 1$)的向量 $s$ 的数量为: \[ \begin{pmatrix} n \\ c_1n, ..., c_kn \end{pmatrix} \approx 2^{H(c_1, ..., c_k)n} \] 其中熵 $H(c_1, ..., c_k) = \sum_{i = 1}^k c_i \log_2(1/c_i)$。 ### 1.2 量子行走 为了将经典的Meet - LWE算法转换到量子环境中,我们利用了Magniez - Nayak - Roland - Santha的量子行走框架。 #### 1.2.1 经典随机行走 经典随机行走在图中搜索标记顶点分3步: 1. 在设置时间 $T_S$ 内设置一个明确的顶点 $v$。 2. 将 $v$ 更新为随机相邻顶点,更新 $1/\delta$ 次,每次更新耗时 $T_U$。 3. 在检查时间 $T_C$ 内检查得到的顶点是否被标记。若未标记,则返回步骤2。 这里图的谱隙 $\delta$ 告诉我们需要执行多少步才能到达一个(几乎)均匀随机的顶点进行检查。若有 $\epsilon$ 比例的顶点被标记,则总时间复杂度为: \[ T_{RW} = T_S + \frac{1}{\epsilon}(T_C + \frac{1}{\delta}T_U) \] #### 1.2.2 量子行走 与经典随机行走不同,量子行走可以走到所有相邻顶点的叠加态,只需重复 $1/\sqrt{\delta}$ 次。并且,我们可以改变具有标记顶点的状态的相位,重复 $1/\sqrt{\epsilon}$ 次后,在量子时间复杂度内测量到一个标记节点: \[ T_{QW} = T_S + \frac{1}{\sqrt{\epsilon}}(T_C + \frac{1}{\sqrt{\delta}} \cdot T_U) \] Johnson图有助于最小化更新成本。 - **定义3(Johnson图)**:设 $L$ 是一个大小为 $N$ 的集合。对于某个 $r \leq N$,Johnson图 $J(N, r)$ 是一个无向图 $G_J = (V_J, E_J)$,其中 $|V_J| = \binom{N}{r}$ 个顶点表示 $L$ 的大小为 $r$ 的子集。若 $v, v' \in V_J$ 表示的子集 $S, S'$ 相差一个元素,即 $|S \cap S'| = r - 1$,则 $\{v, v'\} \in E_J$。 - **定义4**:给定图 $G_1 = (V_1, E_1)$、$G_2 = (V_2, E_2)$,定义笛卡尔积 $G_1 \times G_2 = (V, E)$ 为:$V = V_1 \times V_2 = \{v_1v_2 | v_1 \in V_1, v_2 \in V_2\}$,$E = \{v_1v_2, v_1'v_2' | (v_1 = v_1', (v_2, v_2') \in E_2) 或 ((v_1, v_1') \in E_1, v_2 = v_2')\}$。 $m$ 个Johnson图的笛卡尔积 $J^m(N, r) = \times_{i = 1}^m J(N, r)$ 的谱隙可以用以下公式近似: \[ \delta(J^m(N, r)) \geq \frac{1}{m\delta(J(N, r))} = \Omega(\frac{1}{r}) \] ## 2. 量子Meet - LWE - 高层思路 ### 2.1 经典Meet - LWE 经典Meet - LWE算法的高层思路如下: 设 $s$ 是一个三元权重 - $w$ 的LWE秘密密钥,且 $\pm1$ 的数量为偶数。令 $w(0) = w/2$,则 $s \in T^n(w(0))$。我们将 $s$ 写为 $s = s_1^{(1)} + s_2^{(1)}$,其中 $s_1^{(1)}, s_2^{(1)} \in T^n(w^{(1)})$,且 $w^{(1)} \geq w^{(0)}/2$。 将LWE等式 $As = b + e \mod q$ 重写为: \[ As_1^{(1)} + e_1 = b - As_1^{(1)} + e_2 \mod q \] 其中 $e_1, e_2 \in \{0, 1\}^n$。 Meet - LWE算法构建满足上述等式在 $r$ 个坐标上的候选解 $s_1^{(1)}, s_2^{(1)}$。设 $R^{(1)}$ 是将 $s$ 写为 $s_1^{(1)} + s_2^{(1)}$ 的表示数量,令 $r = \lfloor \log_q(R^{(1)}) \rfloor$,并固定一个随机目标 $t \in Z_q^r$。用 $\pi_r : Z_q^n \to Z_q^r$ 表示投影到前 $r$ 个坐标。则期望至少有一个 $s$ 的表示满足: \[ \pi_r(As_1^{(1)} + e_1) = t = \pi_r(b - As_1^{(1)} + e_2) \mod q \] 该算法的步骤如下: ```plaintext 算法1. 经典Meet - LWE 输入: LWE公钥 $(A, b) \in Z_q^{n\times n} \times Z_q^n$,权重 $w \in N$ 输出: 满足 $e = As - b \mod q \in T^n$ 的三元权重 - $w$ 的 $s$ 1: 设 $R^{(1)}$ 是 $s = s_1 + s_2$ 的表示数量,令 $r = \lfloor \log_q(R^{(1)}) \rfloor$。 2: 对于所有 $\pi_r(e) \in T^r$ 执行以下操作 3: 使用基于树的列表构造方法构造 $L_1^{(1)}, L_2^{(1)}$。 4: 通过Odlyzko哈希找到 $s_1, s_2$,使得 $s_1 + s_2 \in T^n(w/2)$ 且 $A(s_1 + s_2) - b \in T^n$。 5: 结束循环 6: 返回 $s = s_1 + s_2$ ``` ### 2.2 量子Meet - LWE(QMEET - LWE) 为了将Meet - LWE转换为量子随机行走QMeet - LWE,我们使用了在子集和问
corwn 最低0.47元/天 解锁专栏
赠100次下载
继续阅读 点击查看下一篇
profit 400次 会员资源下载次数
profit 300万+ 优质博客文章
profit 1000万+ 优质下载资源
profit 1000万+ 优质文库回答
复制全文

相关推荐

史东来

安全技术专家
复旦大学计算机硕士,资深安全技术专家,曾在知名的大型科技公司担任安全技术工程师,负责公司整体安全架构设计和实施。
最低0.47元/天 解锁专栏
赠100次下载
百万级 高质量VIP文章无限畅学
千万级 优质资源任意下载
千万级 优质文库回答免费看
立即解锁

专栏目录

最新推荐

模型生产化:从本地部署到云端容器化

# 模型生产化:从本地部署到云端容器化 ## 1. 引入 FastAPI 在将模型投入生产的过程中,我们首先要安装 FastAPI。由于 FastAPI 是一个 Python 模块,我们可以使用 pip 进行安装。打开一个新的终端,运行以下命令: ```bash $ pip install fastapi uvicorn aiofiles jinja2 ``` 这里我们安装了一些 FastAPI 所需的额外依赖项。uvicorn 是一个用于设置 API 的底层服务器/应用程序接口,而 aiofiles 则使服务器能够异步处理请求,例如同时接受和响应多个独立的并行请求。这两个模块是 FastA

多视图检测与多模态数据融合实验研究

# 多视图检测与多模态数据融合实验研究 ## 1. 多视图检测实验 ### 1.1 实验数据集 实验参考了Wildtrack数据集和MultiviewX数据集,这两个数据集的特点如下表所示: | 数据集 | 相机数量 | 分辨率 | 帧数 | 区域面积 | | ---- | ---- | ---- | ---- | ---- | | Wildtrack | 7 | 1080×1920 | 400 | 12×36 m² | | MultiviewX | 6 | 1080×1920 | 400 | 16×25 m² | ### 1.2 评估指标 为了评估算法,使用了精度(Precision)、

二维和三维偏微分方程耦合求解及生命科学中常微分方程问题的解决

### 二维和三维偏微分方程耦合求解及生命科学中常微分方程问题的解决 #### 1. 二维和三维偏微分方程耦合求解 在求解二维和三维偏微分方程时,有几个具体的问题和解决方法值得探讨。 ##### 1.1 获取相同网格点的 v 值 要在与 u 相同的网格点上获取 v 值,可以输入以下命令: ```matlab >> T_table=tri2grid(p,t,u(length(p)+1:end,end),x,y) ``` 示例结果如下: ``` T_table = 0.6579 0.5915 0.5968 0.6582 0 0.6042 0.4892 0.5073 0.6234 0 0.543

强化学习与合成数据生成:UnityML-Agents深度解析

# 强化学习与合成数据生成:Unity ML - Agents 深度解析 ## 1. 好奇心奖励与超参数设置 在强化学习中,为了激发智能体的好奇心,可以传递与外在奖励相同的超参数。具体如下: - **好奇心奖励信号超参数**: - `reward_signals->curiosity->strength`:用于平衡好奇心奖励与其他奖励(如外在奖励)的缩放系数,取值范围在 0.0 到 1.0 之间。 - `reward_signals->curiosity->gamma`:根据奖励实现所需的时间来调整奖励感知价值的第二个缩放系数,与外在奖励的 `gamma` 类似,取值范围也在

使用PyTorch构建电影推荐系统

### 使用 PyTorch 构建电影推荐系统 在当今数字化时代,推荐系统在各个领域都发挥着至关重要的作用,尤其是在电影推荐领域。本文将详细介绍如何使用 PyTorch 构建一个电影推荐系统,从数据处理到模型训练,再到最终的推荐生成,为你呈现一个完整的推荐系统构建流程。 #### 1. 数据探索与处理 首先,我们需要对 MovieLens 数据集进行探索和处理。该数据集包含用户对电影的评分信息,其中存在一些缺失的评分值,用 NaN 表示。我们的目标是利用非空评分训练推荐系统,并预测这些缺失的评分,从而为每个用户生成电影推荐。 以下是处理数据集的代码: ```python import p

利用Kaen实现PyTorch分布式训练及超参数优化

### 利用Kaen实现PyTorch分布式训练及超参数优化 #### 1. 启用PyTorch分布式训练支持 在进行模型训练时,我们可以使用Kaen框架来支持PyTorch的分布式训练。以下是相关代码示例: ```python train_glob = os.environ['KAEN_OSDS_TRAIN_GLOB'] if 'KAEN_OSDS_TRAIN_GLOB' in os.environ else 'https://raw.githubusercontent.com/osipov/smlbook/master/train.csv' val_glob = os.environ['

利用PyTorch进行快速原型开发

### 利用 PyTorch 进行快速原型开发 在深度学习领域,快速搭建和验证模型是非常重要的。本文将介绍两个基于 PyTorch 的高级库:fast.ai 和 PyTorch Lightning,它们可以帮助我们更高效地进行模型的训练和评估。 #### 1. 使用 fast.ai 进行模型训练和评估 fast.ai 是一个基于 PyTorch 的高级库,它可以让我们在几分钟内完成模型的训练设置。下面是使用 fast.ai 训练和评估手写数字分类模型的步骤: ##### 1.1 模型训练日志分析 在训练过程中,我们可以看到冻结网络的第一个训练周期,然后是解冻网络的两个后续训练周期。日志中

电力电子中的Simulink应用:锁相环、静止无功补偿器与变流器建模

# 电力电子中的Simulink应用:锁相环、静止无功补偿器与变流器建模 ## 1. 锁相环(PLL) ### 1.1 锁相环原理 锁相环(PLL)是一种控制算法,用于确定正弦输入的频率和相位角。它主要用于两个系统之间的频率匹配,匹配完成后会存在一个恒定的相位差,从而实现相位“锁定”。PLL由相位检测机制、PID控制器和用于生成相位角信息的振荡器组成。此外,系统中还包含一个低通滤波器,用于获取正弦输入的频率信息。在柔性交流输电系统(FACTS)设备中,PLL增益对稳定系统性能起着至关重要的作用。 ### 1.2 Simulink环境下的PLL设置 为了直观展示PLL如何反映频率和相位的变化

模糊推理系统对象介绍

# 模糊推理系统对象介绍 ## 1. fistree 对象 ### 1.1 概述 fistree 对象用于表示相互连接的模糊推理系统树。通过它可以创建一个相互关联的模糊推理系统网络。 ### 1.2 创建方法 可以使用以下语法创建 fistree 对象: ```matlab fisTree = fistree(fis,connections) fisTree = fistree( ___ ,'DisableStructuralChecks',disableChecks) ``` - `fisTree = fistree(fis,connections)`:创建一个相互连接的模糊推理系统对象

PyTorch神经网络构建与训练全解析

### PyTorch 神经网络构建与训练全解析 #### 1. 特征标准化 在很多情况下,对特征进行标准化是一个很好的做法,即使并非总是必要(例如当所有特征都是二元特征时)。标准化的目的是让每个特征的值具有均值为 0 和标准差为 1 的特性。使用 scikit-learn 的 `StandardScaler` 可以轻松完成这一操作。 然而,如果你在创建了 `requires_grad=True` 的张量后需要进行标准化操作,就需要在 PyTorch 中直接实现,以免破坏计算图。以下是在 PyTorch 中实现特征标准化的代码: ```python import torch # Creat