Deep Learning and Backpropagation
创始人
2025-06-01 05:56:08

文章目录

  • 一、Deep learning attracts lots of attention.
    • Ups and downs of Deep Learning
    • Three Steps for Deep Learning
    • Neural Network
    • Output Layer as Multi-Class Classifier
    • FAQ
  • 二、Step 2: goodness of function
    • Loss for an Example:
    • Total Loss:
  • 三、Step 3: pick the best function
    • Gradient Descent
    • Backpropagation
  • 四、Backpropagation
    • Backpropagation – Forward pass
    • Backpropagation – Summary
  • 总结

一、Deep learning attracts lots of attention.

在这里插入图片描述
Deep learning trends at Google. Source: SIGMOD 2016/Jeff Dean

Ups and downs of Deep Learning

1958: Perceptron (linear model)
1969: Perceptron has limitation
1980s: Multi-layer perceptron
Do not have significant difference from DNN today
1986: Backpropagation
Usually more than 3 hidden layers is not helpful
1989: 1 hidden layer is “good enough”, why deep?
2006: RBM initialization
2009: GPU
2011: Start to be popular in speech recognition
2012: win ILSVRC image competition
2015.2: Image recognition surpassing human-level performance
2016.3: Alpha GO beats Lee Sedol
2016.10: Speech recognition system as good as humans

Three Steps for Deep Learning

在这里插入图片描述

Neural Network

在这里插入图片描述
Network parameter θ: all the weights and biases in the “neurons” 。

Fully Connect Feedforward Network:
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
Deep = Many hidden layers:
在这里插入图片描述
Matrix Operation:
在这里插入图片描述
Neural Network :

在这里插入图片描述

Output Layer as Multi-Class Classifier

在这里插入图片描述
Example Application–Handwriting Digit Recognition
在这里插入图片描述
ou need to decide the network structure to let a good function in your function set.

FAQ

在这里插入图片描述
Q: How many layers? How many neurons for each layer?
在这里插入图片描述
Q: Can the structure be automatically determined?
E.g. Evolutionary Artificial Neural Networks
Q: Can we design the network structure?
在这里插入图片描述

二、Step 2: goodness of function

Loss for an Example:

在这里插入图片描述

Total Loss:

在这里插入图片描述
在这里插入图片描述
Find a function in function set that minimizes total loss L.
Find the network parameters θ^∗ that minimize total loss L.

三、Step 3: pick the best function

Gradient Descent

在这里插入图片描述
在这里插入图片描述

Backpropagation

Backpropagation: an efficient way to compute ∂L∕∂w in neural network.
在这里插入图片描述

四、Backpropagation

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

Backpropagation – Forward pass

Compute ∂z∕∂w for all parameters
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

Backpropagation – Summary

在这里插入图片描述

总结

相关内容

热门资讯

李子柒公司今年已成功注册多枚商... 11月12日消息,今日,李子柒发布视频官宣回归,消息引发多方关注,登上热搜。天眼查商业履历信息显示,...
明亚保险经纪遭前员工举报违规销... 11月12日消息,一名明亚保险经纪前员工实名举报该公司违法组织销售境外保险一事引起广泛关注。从监管部...
黑芝麻今日上演地天板,国盛证券... 11月12日消息,黑芝麻今日上演地天板,成交额20.18亿元,换手率40.59%,盘后龙虎榜数据显示...
我国逐渐形成高效的汽车整车综合... 11月12日消息,中国物流与采购联合会今天在2024中国汽车物流行业年会上发布《中国汽车物流发展报告...
花旗:投资者开始获利了结,美股... 11月12日消息,花旗集团策略师表示,随着投资者开始获利了结,美国股市在大选后的反弹可能会失去动力。...