科探空谷
  • Home
  • zhimind home
  • Categories
  • Tags
  • Archives
  • 留学
    • 学校库
    • 专业库
    • 研究方向与招生
    • 工具
    • GPA计算器
    • 脑洞背单词
    • 脱口而出

极少量图片的无监督特征学习

目录

  • Summary概述
    • 目标
  • 方法
    • 数据扩充
      • 实例
    • 表示学习方法
      • 生成模型
      • 旋转
      • 聚类
  • 实验
    • 线性探测
  • 未来方向
  • 对照
目录

Summary概述¶

有趣的新发现,没有引入新方法

神经网络的较浅层(前几层)可以仅用极少量数据、图片进行无监督学习, 仅用一张也行(进行大量数据扩充), 学习到的特征、权重不亚于用大量数据的监督学习。

问题: 如作者所述,少量图片就能把较浅层训练得足够好, 这里的“足够好”是怎么比较的? 比如类似迁移学习transfer learning?但替换较浅几层的权重?

回答: linear probes, 线性探测, 基于学习好的神经网络(比如前1-k层, k<<n),训练一个线性分类器, 比较线性分类器的分类正确率。

推论(证实):神经网络浅较层的泛化本质、内在(the very generic nature), 不需要使用大数据集进行训练。

目标¶

  1. 自监督学习下的极端低(少)数据情形(regime), 即数据扩充(data augmentation)方法
  2. 研究哪些自监督、无监督学习方法能应用于少数据情形

方法¶

数据扩充¶

原使用 $d$ 张图片训练, 现在定义 $N \ll d$ 张图片, 其他的 $d-N$ 张都是扩充图片。目标是 $N=1$

  1. 小块扩充, 从原图( $H \times W$ ) 随机选若干小图片( $h \times w$ ),约束条件: $$ \beta \leq \frac{w h}{W H}, \quad \gamma \leq \frac{h}{w} \leq \gamma^{-1} $$

  2. 旋转扩充, $ \alpha \in (-35, 35) $ 度

  3. 色彩扩充, RGB线性颜色变换

  4. 色彩噪音

实例¶

并不是限定使用原数据集里的一张或几张图片, 比如 CIFAR10 的图片非常小, 就没法进行小块扩充。 作者测试了两张图, 还有一组10张图:

single-image-unsupervised-a

single-image-unsupervised-b

10-image-unsupervised

表示学习方法¶

生成模型¶

Bidirectional Generative Adversarial Networks (BiGAN)

旋转¶

RotNet

聚类¶

DeepCluster

实验¶

线性探测¶

基于固定的训练好的特征表示,训练线性分类器。 显然, 学习到的特征表示决定了分类质量。

1556825057402

1556824867963

结果显示, 无监督学习得到的 Conv1 第一个卷积层甚至比监督学习还好, 前两三层有提高, 然后下滑, 说明无监督学习对高抽象的特征学习不佳。

未来方向¶

  1. 0图学习, 使用生成的不规则零碎图片学习
  2. 找出或优化出更完美的单图,可以称之为原型图

补充:

显然, 浅层卷积效果好了, 就自然有两个问题:

  1. 能否不用这么多扩充的图片, 卷积层本身就应该自动匹配到各局部特征, 而且应该色彩变化不敏感, 旋转角度能否就-30、-15、0、15、30 这么5张, 为什么要这么多。
  2. 与监督学习的高层特征区别在哪里

对照¶

data augmentation: 数据扩充、数据增强、数据增广

low-data regime: 对不上号, 瞎猜一个 低(少)数据情形

linear probes: 线性探测


Published

5月 2, 2019

Category

论文

Tags

  • 表示学习 1
  • 论文 39
  • 无监督学习 1
  • 自监督学习 1

Stay in Touch

  • Powered by Pelican. Theme: Elegant by Talha Mansoor