域泛化(Domain Generalization)

仓库:https://github.com/jindongwang/transferlearning
综述:https://arxiv.org/pdf/2103.03097、https://arxiv.org/pdf/2103.02503


1.问题及解决方案

出发点:需要解决domain shift、out-of-distribution (OOD)问题
解决方案:绕过OOD数据问题的一个简单解决方案是从目标域收集一些数据,以适应源域训练的模型。缺点是难以收集目标域数据(在交通场景语义分割中,在所有可能的天气条件下收集捕获所有不同场景的数据是不可行的)。为了克服域偏移问题以及缺乏目标数据,引入了域泛化(DG)。具体而言,DG的目标是使用来自单个或多个相关但不同的源域的数据来学习模型,使模型能够很好地推广到任何OOD目标域。

2.Domain Generalization

域泛化 (Domain Generalization, DG) 它研究的问题是从若干个具有不同数据分布的数据集(领域)中学习一个泛化能力强的模型,以便在 未知 (Unseen) 的测试集上取得较好的效果。包含了很多方法比如:domain alignment, meta-learning, data augmentation, or ensemble learning

域泛化问题与域自适应 (Domain Adaptation,DA)最大的不同:DA在训练中,源域和目标域数据均能访问(无监督DA中则只有无标记的目标域数据);而在DG问题中,我们只能访问若干个用于训练的源域数据,测试数据是不能访问的。毫无疑问,DG是比DA更具有挑战性和实用性的场景:毕竟我们都喜欢“一次训练、到处应用”的足够泛化的机器学习模型。

域泛化与迁移学习的区别在于是否使用了目标数据。在TL中,新的下游任务的模型微调需要目标数据,而在DG中,我们假设无法访问目标数据,因此更多地关注模型泛化。

在这里插入图片描述

2.1 数据集

VLCS和Office-31是两个在迁移学习和领域泛化任务中常用的数据集,前者主要是视角与环境的
VLCS数据集包含Pascal VOC 2007(V)、LabelMe(L)、Caltech 101(C)和SUN09(S)。Office-31数据集包含了来自三个不同领域的图像数据,这三个领域分别是:Amazon(在线电商图片)、Webcam(网络摄像头拍摄的低解析度图片)和DSLR(单反相机拍摄的高解析度图片)

在这里插入图片描述

2.2 Evaluation

DG算法的评估通常遵循leave-one- domain-out的规则:给定一个包含至少两个不同域的数据集,其中一个或多个域被用作模型训练的源域,而其余域被视为目标域;模型选择包括三种方法:Training-domain validation,Leave-one-domain-out validation,Test-domain validation

2.3 Related Topics

如表2所示,Transfer Learning TL和DG之间的关键区别在于是否使用了目标数据。在TL中,新的下游任务的模型微调需要目标数据,而在DG中,我们假设无法访问目标数据,因此更多地关注模型泛化。

Zero-Shot Learning (ZSL),为了识别ZSL中看不见的类,一种常见的做法是学习输入图像空间和属性空间之间的映射[148],因为标签空间在训练数据和测试数据之间是不相交的。
在这里插入图片描述

3.方法调研

Domain Alignment:大多数现有的DG方法属于域对齐,其中的中心思想是最小化源域之间的差异,以学习域不变表示。
Data Augmentation:尽管在学习过程中使用图像转换不需要域标签,但转换的选择通常是特定于问题的。

在这里插入图片描述

### 关于Domain Generalization的研究综述 领域泛化Domain Generalization, DG)是指机器学习模型能够在未见过的分布上表现良好,而不仅仅是训练过程中遇到过的特定域。为了应对这一挑战,研究者们提出了多种方法和技术。 #### 域泛化的定义与发展历程 领域泛化的目标在于使模型能够推广到未曾接触过的新环境或条件下[^1]。相比于传统的监督学习设定,在DG场景下,目标是从多个源域中提取共有的特性,以便更好地适应未知的目标域。这不仅涉及到如何有效利用已知的信息,还需要考虑跨域间潜在差异的影响。 #### 主要技术路线概述 针对上述问题,当前主流的技术路径可以分为几大类: - **因果关系启发法**:此类方法试图找到输入特征与输出之间的因果联系而非简单的统计关联。例如,当\(X\)是\(Y\)的原因时,通过对齐条件概率分布\(P(X|Y)\),可以在一定程度上缓解因样本偏差带来的负面影响[^3]。 - **特征解耦**:通过分离出那些不受具体应用场景影响的部分表征,使得学到的知识更具迁移性。生成对抗网络被广泛应用于此目的,因为它可以帮助创建更加鲁棒且可解释性强的学习框架[^2]。 - **不变风险最小化**:这种方法强调寻找在整个空间内都保持一致的风险函数形式,从而确保即使面对全新的数据也能维持较低误差率。其核心思想是在不同环境下寻求共同结构并加以优化。 - **基于梯度操纵的方法**:这类方案通常会引入额外损失项来指导参数更新过程,促使模型学会忽略掉那些容易引起过拟合的因素。实践中常采用多任务联合训练的方式,即同时完成分类和其他辅助任务如预测所属域等[^4]。 #### 开源资源支持 除了理论探讨外,实际应用中的工具链同样重要。为此,《Generalizing to Unseen Domains: A Survey on Domain Generalization》一文中提到了DeepDG项目——这是一个专门为促进DG方向研究所建立起来的开源平台。它包含了大量预处理后的公开可用数据集以及经过验证有效的基线解决方案,极大地降低了入门门槛。 ```python # 示例代码片段展示如何加载DeepDG库中的一个基础模型进行微调 from deepdg.models import BaselineModel model = BaselineModel() ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Jeremy_lf

你的鼓励是我的动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值