活动介绍

离策略方法中的近似与稳定性挑战

立即解锁
发布时间: 2025-09-01 00:22:12 阅读量: 3 订阅数: 11 AIGC
# 离策略方法中的近似与稳定性挑战 ## 1. 离策略发散的示例 ### 1.1 简单示例 在离策略学习中,更新分布与在线策略分布不匹配会带来挑战。为了建立直观理解,先考虑一个简单示例。假设在一个更大的马尔可夫决策过程(MDP)中有两个状态,其估计值分别为 $w$ 和 $2w$,这里参数向量 $w$ 只有一个分量 $w$。在线性函数近似下,如果这两个状态的特征向量分别为简单数字(单分量向量),即 1 和 2 时,就会出现这种情况。 在第一个状态,只有一个动作可用,该动作会确定性地转移到第二个状态,且奖励为 0。假设初始时 $w = 10$,那么从估计值为 10 的状态转移到估计值为 20 的状态,看起来是个好的转移,$w$ 会被增加以提高第一个状态的估计值。如果 $\gamma$ 接近 1,TD 误差将近似为 10,若 $\alpha = 0.1$,为了减少 TD 误差,$w$ 会增加到近似 11。然而,第二个状态的估计值也会增加到近似 22。如果再次发生转移,从估计值约为 11 的状态转移到估计值约为 22 的状态,TD 误差约为 11,比之前更大。这会让人觉得第一个状态被低估,其值会再次增加,这次会增加到约 12.1。实际上,随着进一步更新,$w$ 会发散到无穷大。 更仔细地看更新序列,两个状态之间转移的 TD 误差为: $\delta_t = R_{t+1} + \gamma\hat{v}(S_{t+1}, w_t) - \hat{v}(S_t, w_t) = 0 + \gamma2w_t - w_t = (2\gamma - 1)w_t$ 离策略半梯度 TD(0) 更新公式为: $w_{t+1} = w_t + \alpha\rho_t\delta_t\nabla\hat{v}(S_t, w_t) = w_t + \alpha\cdot 1\cdot(2\gamma - 1)w_t\cdot 1 = [1 + \alpha(2\gamma - 1)]w_t$ 这里重要性采样比 $\rho_t$ 为 1,因为从第一个状态只有一个动作可用,所以目标策略和行为策略下该动作被采取的概率都为 1。如果 $1 + \alpha(2\gamma - 1) > 1$,即 $\gamma > 0.5$ 时,系统不稳定,$w$ 会根据其初始值趋向正无穷或负无穷。而且,稳定性不依赖于具体的步长,只要 $\alpha > 0$,不同的步长只会影响 $w$ 趋向无穷大的速率,而不影响是否会趋向无穷大。 这个示例的关键在于,这个转移会反复发生,而 $w$ 不会在其他转移上更新。在离策略训练中这是可能的,因为行为策略可能会选择目标策略永远不会选择的动作,对于这些转移,$\rho_t$ 为 0,不会进行更新。而在在线策略训练中,$\rho_t$ 始终为 1。每次从 $w$ 状态转移到 $2w$ 状态使 $w$ 增加时,也必须有从 $2w$ 状态的转移,这个转移会减少 $w$,除非转移到的值比 $2w$ 更高的状态,否则 $w$ 会被减少。 ### 1.2 Baird 反例 上述简单示例只是一个完整 MDP 的片段,缺乏说服力。Baird 反例给出了一个完整的发散示例。考虑一个具有七个状态、两个动作的阶段性 MDP。虚线动作会使系统以相等概率转移到六个上层状态之一,而实线动作会使系统转移到第七个状态。行为策略 $b$ 选择虚线和实线动作的概率分别为 $\frac{6}{7}$ 和 $\frac{1}{7}$,使得在该策略下的下一个状态分布是均匀的(所有非终止状态相同),这也是每个阶段的起始分布。目标策略 $\pi$ 总是选择实线动作,所以在线策略分布(对于 $\pi$)集中在第七个状态。所有转移的奖励都为 0,折扣率 $\gamma = 0.99$。 考虑根据每个状态圆圈中所示表达式进行线性参数化来估计状态值。例如,最左边状态的估计值为 $2w_1 + w_8$,这里下标对应于整体权重向量 $w \in R^8$ 的分量,这对应于第一个状态的特征向量为 $x(1) = (2, 0, 0, 0, 0, 0, 0, 1)^T$。由于所有转移的奖励都为 0,真实值函数 $v_{\pi}(s) = 0$,对于所有 $s$,当 $w = 0$ 时可以精确近似。实际上,由于权重向量的分量(8 个)比非终止状态(7 个)多,有很多解。而且,特征向量集 $\{x(s) : s \in S\}$ 是线性独立的。从这些方面看,这个任务似乎是线性函数近似的有利情况。 如果对这个问题应用半梯度 TD(0),权重会发散到无穷大。即使使用动态规划(DP)进行期望更新,系统仍然不稳定。这表明,即使是最简单的自举和函数近似组合,如果更新不是根据在线策略分布进行,也可能不稳定。 ### 1.3 Q - learning 的反例 也有类似于 Baird 反例的情况表明 Q - learning 会发散。这令人担忧,因为在其他情况下,Q - learning 在所有控制方法中具有最好的收敛保证。人们付出了很多努力来寻找解决这个问题的方法或获得一些较弱但仍然可行的保证。例如,只要行为策略足够接近目标策略,如 $\epsilon$ - 贪心策略,可能可以保证 Q - learning 的收敛。但到目前为止,还没有理论分析。 ### 1.4 其他探索思路 #### 1.4.1 采用最小二乘法近似 有人想知道,如果在每次迭代中不是朝着期望的单步回报迈一步,而是将值函数完全改变为最佳的最小二乘法近似,是否能解决不稳定性问题。如果特征向量集 $\{x(s) : s \in S\}$ 是线性独立的,就像在 Baird 反例中那样,那么每次迭代都可以进行精确近似,方法会简化为标准的表格型 DP,问题可以解决。但关键是考虑无法得到精确解的情况,在这种情况下,即使每
corwn 最低0.47元/天 解锁专栏
赠100次下载
继续阅读 点击查看下一篇
profit 400次 会员资源下载次数
profit 300万+ 优质博客文章
profit 1000万+ 优质下载资源
profit 1000万+ 优质文库回答
复制全文

相关推荐

张_伟_杰

人工智能专家
人工智能和大数据领域有超过10年的工作经验,拥有深厚的技术功底,曾先后就职于多家知名科技公司。职业生涯中,曾担任人工智能工程师和数据科学家,负责开发和优化各种人工智能和大数据应用。在人工智能算法和技术,包括机器学习、深度学习、自然语言处理等领域有一定的研究
最低0.47元/天 解锁专栏
赠100次下载
百万级 高质量VIP文章无限畅学
千万级 优质资源任意下载
千万级 优质文库回答免费看
立即解锁

专栏目录

最新推荐

Tableau高级功能:地图与仪表盘操作指南

### Tableau高级功能:地图与仪表盘操作指南 #### 1. 高级地图功能 在使用Tableau进行数据可视化时,地图是一种非常强大的工具。从2018年起,Tableau引入了一些高级地图技术,极大地提升了地图可视化的能力。不过,在使用这些高级功能时,要确保地图能合理反映数据比例,避免数据的错误呈现。下面将详细介绍几种高级地图功能。 ##### 1.1 密度标记(Density Marks) 密度标记类型可用于查看特定区域内数据的集中程度。以查看美国大陆机场集中情况为例: - 操作步骤: 1. 双击“Origin Latitude”和“Origin Longitude”,并

优化PowerBI体验与DAX代码的实用指南

### 优化 Power BI 体验与 DAX 代码的实用指南 在当今的数据驱动时代,Power BI 作为一款强大的商业智能工具,在数据分析和可视化方面发挥着重要作用。同时,DAX(Data Analysis Expressions)语言作为 Power BI 中进行高级计算和查询的关键,其优化对于提升整体性能至关重要。本文将详细介绍如何在 Power BI 中使用 Power Automate Visual、集成 Dynamics 365 进行数据分析,以及优化 DAX 代码的十种方法。 #### 1. 使用 Power Automate Visual 在 Power BI 中,你可以

预训练模型的十大关键问题探索

# 预训练模型的十大关键问题探索 ## 1. 模型安全与认知学习 ### 1.1 模型安全 在模型安全方面,具备语音知识的模型不会被“U r stupid!”这类表述所误导。因此,构建具有丰富知识的大模型是保障模型安全的可靠途径。 ### 1.2 认知学习 当前大模型的学习范式仍以数据驱动为主,无法充分反映现实世界中的潜在风险。人类能够主动与世界交互并持续获取知识,还能从“试错”过程中学习避免错误。所以,对于构建安全模型而言,从认知和交互中学习至关重要。 ### 1.3 安全与伦理挑战 安全和伦理是人工智能领域长期存在的话题,在文学和艺术作品中也有广泛讨论。面对强大机器失控的担忧,我们需

Tableau基础图表的创建与理解

### Tableau基础图表的创建与理解 在数据可视化领域,Tableau是一款功能强大的工具,它提供了多种类型的图表来帮助我们更好地理解和展示数据。下面将详细介绍如何在Tableau中创建几种常见的基础图表。 #### 1. 交叉表(文本表) 很多人在查看数据时,更倾向于使用熟悉的表格形式。Tableau提供了创建交叉表或文本表的功能,操作步骤如下: - 保存之前创建图表的进度。 - 若要从现有图表创建新的交叉表,在工作表标签处右键单击,选择“Duplicate as Crosstab”,即可生成一个新的文本表。 创建完成后,会发现Tableau做了一些有趣的改变: - “Regio

问答与对话系统技术探索

### 问答与对话系统技术探索 #### 1. 领域阅读资源概述 问答系统是一个活跃且广泛的领域。有一些关于问答系统和问题类型的简要但实用的综述。对于受限领域和开放领域问答的更全面介绍也有相关资料。常用的问答方法包括利用结构化知识源(如知识图谱和本体)的系统、基于检索的系统、交互式问答、视觉问答以及基于深度学习的方法等。 对话系统近年来受到了很多关注,这主要得益于语音识别和自然语言理解的进步。关于对话系统有很好的入门资料,广泛接受的对话言语行为理论也有相应的发展。马尔可夫决策过程框架的基础以及部分可观测马尔可夫决策过程的讨论都有相关文献。强化学习、时间差分学习和Q学习也都有不错的讨论资料。

电子商务中的聊天机器人:开发、测试与未来趋势

# 电子商务中的聊天机器人:开发、测试与未来趋势 ## 1. Rasa助力电商聊天机器人开发 Rasa为电子商务提供了“零售入门包”,这本质上是一个专门用于客户服务的基础示例聊天机器人。该机器人预装了训练数据,具备多种零售客户服务技能,如查询订单状态。零售虚拟助手开发者可利用此项目创建适合在线零售的定制聊天机器人。 Rasa拥有高度可定制的开发系统,开发者能选择将关键组件(如特定语言模型)集成到项目中。此外,Rasa拥有庞大的社区,便于开发者融入其生态系统。它为电商聊天机器人开发提供了众多功能和优势,是一款出色的工具。一些选择Rasa开发虚拟助手的企业包括食品配送公司HelloFresh和

数据故事创作:从理论到实践的全面指南

# 数据故事创作:从理论到实践的全面指南 ## 1. SWD工作坊:实践与提升 在工作中,我们可以组织 SWD 工作坊来提升数据故事讲述的能力。首先是前期准备工作: - 给团队发送三小时的日程邀请,并预订一个有充足桌面空间和白板的会议室。 - 准备好物资,如彩色马克笔、活动挂图和多种尺寸的便利贴(6x8 英寸的便利贴很棒,因为它们与标准幻灯片尺寸相同,可用于以低技术方式模拟整个演示文稿;同时准备一些较小的便利贴,供那些想在深入细节之前进行更高级故事板制作并关注总体主题和流程的人使用)。 为实际的工作坊指定一名计时员。在项目工作时间,计时员要留意时间,在进行到一半和还剩 20 分钟时提醒参与

概率注释模型:特征添加与序列标注任务建模

### 概率注释模型:特征添加与序列标注任务建模 在数据标注领域,不同的模型有着各自的特点和适用场景。部分汇集模型在稀疏数据条件下展现出更好的适应性,它通过信息共享机制,让标注者的注释行为相互影响,从而使模型在数据有限时也能有效工作。当有足够的注释时,部分汇集模型和非汇集模型的性能可能相近,但整体而言,部分汇集模型更为通用。 #### 1. 添加特征以增强模型能力 传统的裁决模型主要依赖编码者提供的注释,但研究表明,让模型具备数据感知能力,即除了注释外,使用特征来刻画项目,能够提升模型的裁决能力。 ##### 1.1 Raykar 等人的判别模型 Raykar 等人(2010)利用特征丰

Snowflake数据平台全方位解析

# Snowflake数据平台全方位解析 ## 1. Snowflake的发布计划 Snowflake每周会进行两次计划内发布,包含以下类型: - 完整发布:除周五外的任意一天进行部署,涵盖新功能、功能增强或更新以及问题修复。 - 补丁发布 此外,每月还会进行一次行为变更发布。 ## 2. Snowpark支持的语言 Snowpark支持多种客户端开放API语言,为开发者提供了丰富的选择: - Node.js - .NET - Go - Java - Python - SQL Snowflake数据平台对开发者十分友好,允许应用开发者在多种编程语言中进行选择。 ## 3. 查询性能测

利用MicrosoftFairlearn实现AI系统的公平性

# 利用 Microsoft Fairlearn 实现 AI 系统的公平性 ## 1. 公平机会的概念 在美国,“公平机会”指的是每个人都应拥有平等的成功机会,不论其种族、性别或其他个人特征如何。这一概念在教育、就业和住房等多个领域都有应用,其核心信念是所有人都应得到公平对待,不应因种族或性别等因素受到歧视。 为确保所有美国人享有公平机会,人们采取了一系列举措。例如,平权行动旨在帮助那些历史上遭受歧视的群体获得教育和就业机会;禁止在教育和就业中进行歧视的法律,也有助于营造公平竞争的环境。 然而,实现公平机会并非易事。在判断某人是否拥有平等的成功机会时,对于应考虑哪些因素可能存在分歧。此外