科探空谷
  • Home
  • zhimind home
  • Categories
  • Tags
  • Archives
  • 留学
    • 学校库
    • 专业库
    • 研究方向与招生
    • 工具
    • GPA计算器
    • 脑洞背单词
    • 脱口而出

udacity深度学习笔记

目录

  • 总结
    • 大纲
    • softmax
    • One-Hot encoding
    • cross-entropy
    • 其他
目录

总结¶

udacity的课程还是讲得不深入,sndnyang水式的讲了一点内容, 记不了多少内容。 没做他提供的练习, 感觉不是很值得。

大纲¶

四部分:

  1. 基础?
    1. 逻辑回归做分类——然而好像没给出模型式子,只给了损失函数
    2. 随机优化(随机梯度下降)
    3. 数据和参数调试——并没有讲多少的样子
  2. 初试
    1. 深度网络
    2. 正则化
  3. 卷积神经网络 convolution neural network
  4. 应用
    1. 嵌入 embedings
    2. 词向量 Word2Vec
    3. Recurrent Models
    4. LSTM

softmax¶

$$ S(y_i) = \frac{e^{y_i}}{\sum_j e^{y_j}} $$

One-Hot encoding¶

没整明白

cross-entropy¶

熵

¶

输入, 经过线性模型(逻辑回归)转成, Logits, 再经过softmax转成, 概率值, 再与one-hot encoding labels 一起计算 cross entropy。

以上就是 multinomial logistic classification

其他¶

提到以下内容:

  1. SGD 随机梯度下降
  2. rule of 30-- 影响到验证集中30个样例的可以被相信
  3. 交叉验证可能很慢,所以更多数据往往是正确方法
  4. SGD技巧:
    1. 动量(momentum): 即保存梯度的移动平均(running average): $$ M = 0.9M + \Delta J$$, 没确认视频里的符号是什么。
    2. 学习速率衰减(learning rate decay)
  5. Rectified linear units(ReLUs)
  6. 前向反向传播forward/back propagation
  7. early termination: stop before overfitting
  8. $L_2$ regularization
  9. dropout 丢弃法
  10. cnn
    • pooling 池化, max pooling 和 mean pooling
    • 1x1 conv
    • inception
  11. 应用一堆

Published

10月 25, 2016

Category

机器学习

Tags

  • CS 22
  • 机器学习 14
  • 人工智能 28
  • 深度学习 11

Stay in Touch

  • Powered by Pelican. Theme: Elegant by Talha Mansoor