科探空谷
  • Home
  • zhimind home
  • Categories
  • Tags
  • Archives
  • 留学
    • 学校库
    • 专业库
    • 研究方向与招生
    • 工具
    • GPA计算器
    • 脑洞背单词
    • 脱口而出

一致性正则化

目录

  • 摘要
  • 核心思想
  • 基于常规的数据增强
  • 基于时序移动平均
  • 基于对抗扰动
  • 基于高级数据增强
  • 基于数据线性混合
目录

摘要¶

深度学习神经网络甚至于多数的机器学习方法都有几个问题:

  1. 易于过拟合,泛化能力不强
  2. 不稳定,极小的扰动噪音就会改变模型的预测结果

本文介绍若干基于预测一致性原则的正则化方法。所谓一致性,是指输出、预测的一致性, 如前所述, 给输入添加极小的扰动后, 神经网络的预测就会发生很大的变化, 所以提高一致性后就能提高模型的泛化能力, 同时, 因为这些方法往往基于模型输出的预测向量,不需要具体的标签,所以基于一致性的正则化方法基本能应用于半监督学习。

核心思想¶

简单来说, 预测的一致性就是希望两个预测结果尽可能的接近, 数学化描述如下:

$$D [p(y | \text{Augment}(x), \mathbf{\theta}) - p(y | \text{Augment}(x), \mathbf{\theta})]$$

$D[p, q]$ 是距离的度量函数, 比如$|p-q|^2_2 $ 或 KL散度(KL-divergence)$\sum p_i \log \frac{p_i}{q_i}$

这里的$p(y|x, \theta)$ 和 $\text{Augment}(x)$ 会引入一定的随机性或扰动, 一般(我)把这些随机性或扰动分类如下:

  1. 常规的数据增强, 如图像翻转,加随机噪音
  2. 基于GAN
  3. 时序移动平均
  4. 同一模型多次预测时,Dropout层随机舍弃
  5. 多模型
  6. 对抗样本扰动Adversarial Example
  7. 高级数据增强(基于强化学习或自监督学习)
  8. 数据线性混合

基于常规的数据增强¶

$\Pi$-model

Regularization with stochastic transformations and perturbations

基于时序移动平均¶

Temporal Ensembling

Mean Teacher

Stochastic Weight Averaging

基于对抗扰动¶

Adversarial Training

Unified Adversarial Examples

Virtual Adversarial Training

Adversarial Dropout

Adversarial Dropout GAN

基于高级数据增强¶

unsupervised data augmentation

Self-supervised SSL

基于数据线性混合¶

Mixup

MixMatch


Published

8月 29, 2019

Category

神经网络

Tags

  • 论文 39
  • 人工智能 28

Stay in Touch

  • Powered by Pelican. Theme: Elegant by Talha Mansoor