Upload
others
View
1
Download
0
Embed Size (px)
Citation preview
AutoEncoder
全脳アーキテクチャ若手の会 : 第3回ディープラーニング勉強会
慶應義塾大学環境情報学部1年 増山七海
前半
1
後援 ドワンゴ
自己紹介
/ 横浜サイエンスフロンティア高校出身
/ 慶應義塾大学環境情報学部(SFC)・1年生
/ 先端生命科学研究会(冨田研)所属
/ バイオインフォマティクス×合成生物学 (見習い)
/ 増山七海
/ 趣味を探しているところ
/ Deep Learningの勉強を始めて約1ヶ月 重要
誤解を招く表現等(本当の誤解含め) あるかもしれませんがご了承ください
お願い
指摘をしてくださるのは大歓迎です
物足りないと思ったら、ぜひ質問を!!!!
目次
5
・Deep Learning誕生まで
・プレトレーニングの誕生と発展
- Denoising AutoEncoder- Sparse AutoEncoder
- 前々回の勉強会のおさらい- DNNの学習がうまくいかなかった理由
- AutoEncoder
目次
6
・Deep Learning誕生まで
・プレトレーニングの誕生と発展
- Denoising AutoEncoder- Sparse AutoEncoder
- 前々回の勉強会のおさらい- DNNの学習がうまくいかなかった理由
- AutoEncoder
Deep Learning誕生までは第一回の勉強会で大澤さんが ものすごくわかりやすく説明してくれましたが
7
AutoEncoderの説明の流れのために 同じような説明させて下さい ( ほぼ大澤さんのコピペ )
Deep Learningができるまで
ニューロンのモデル化 : パーセプトロンの誕生
多層化の成功 : バックプロパゲーション
多層化の大成功 : プレトレーニングの登場 ※正しくは他にも理由はある!
参考 : 第一回DL勉強会大澤さんスライド
Deep Learning 誕生
8
多層化する意義
パーセプトロン BP Deep Learning 多層化
多層化によって線形分離不能問題を克服 →表現力があがった→より多層化すれば表現力があがるはず
参考 : 第一回DL勉強会大澤さんスライド9
目次
10
・Deep Learning誕生まで
・プレトレーニングの誕生と発展
- Denoising AutoEncoder- Sparse AutoEncoder
- 前々回の勉強会のおさらい- DNNの学習がうまくいかなかった理由
- AutoEncoder
目次
11
・Deep Learning誕生まで
・プレトレーニングの誕生と発展
- Denoising AutoEncoder- Sparse AutoEncoder
- 前々回の勉強会のおさらい- DNNの学習がうまくいかなかった理由
- AutoEncoder
DNNの学習がうまくいかなかった理由
・誤差をうまく逆伝播できない
・局所解に陥る
多層化すると…
過学習汎化性能が低くなる
学習が進まなくなる
・表現力が高すぎる出力に近いニューロンだけでモデルを表現可能
12
誤差をうまく逆伝播できない
バックプロパゲーション(BP) … 後方に誤差を伝播させる
できる!うーん無理!!
多層化すると…
13
局所解に陥る
最適解
凸関数の場合
参考 : 第一回DL勉強会大澤さんスライド14
局所解に陥る
最適解
非凸関数の場合
参考 : 第一回DL勉強会大澤さんスライド15
最適解
最適に近い初期値を与える
参考 : 第一回DL勉強会大澤さんスライド16
表現力が高すぎる
input output
出力に近いニューロンだけでモデルを表現可能
17
誤差伝播できない
過学習してしまう
目次
18
・Deep Learning誕生まで
・プレトレーニングの誕生と発展
- Denoising AutoEncoder- Sparse AutoEncoder
- 前々回の勉強会のおさらい- DNNの学習がうまくいかなかった理由
- AutoEncoder
目次
19
・Deep Learning誕生まで
・プレトレーニングの誕生と発展
- Denoising AutoEncoder- Sparse AutoEncoder
- 前々回の勉強会のおさらい- DNNの学習がうまくいかなかった理由
- AutoEncoder
多層化大成功の理由プレトレーニング
http://www.vision.is.tohoku.ac.jp/files/9313/6601/7876/CVIM_tutorial_deep_learning.pdf
AutoEncoder系(AE) 制限付きボルツマンマシン(RBM)
“教師データがくる前に事前学習する”
20
目次
21
・Deep Learning誕生まで
・プレトレーニングの誕生と発展
- Denoising AutoEncoder- Sparse AutoEncoder
- 前々回の勉強会のおさらい- DNNの学習がうまくいかなかった理由
- AutoEncoder
目次
22
・Deep Learning誕生まで
・プレトレーニングの誕生と発展
- Denoising AutoEncoder- Sparse AutoEncoder
- 前々回の勉強会のおさらい- DNNの学習がうまくいかなかった理由
- AutoEncoder
Autoencoder (AE)
outputinput
hidden
inputとoutputを同じにする → 情報の圧縮 特徴抽出
…… 砂時計型NNの発展形
23
Stacked AutoEncoder
……
… AutoEncoderを多層化
Copy
input output
input output
input ……
features1
features2
24
DNNの学習に成功
AutoEncoderの問題点 恒等写像
中間層が出力層と入力層と同じになってしまう
input output
hidden
error=0
25
目次
26
・Deep Learning誕生まで
・プレトレーニングの誕生と発展
- Denoising AutoEncoder- Sparse AutoEncoder
- 前々回の勉強会のおさらい- DNNの学習がうまくいかなかった理由
- AutoEncoder
目次
27
・Deep Learning誕生まで
・プレトレーニングの誕生と発展
- Denoising AutoEncoder- Sparse AutoEncoder
- 前々回の勉強会のおさらい- DNNの学習がうまくいかなかった理由
- AutoEncoder
Denoising Autoencoder
ノイズを入れても入力データを復元するように学習
outputinput
ノイズ
error
28
Stacked Denoising Autoencoder
output
input output
input
……
Layer1
Layer2
ノイズ
ノイズ
…Denoising AutoEncoderを多層化
29
Copy
Copy
より抽象的にデータを学習させる
目次
30
・Deep Learning誕生まで
・プレトレーニングの誕生と発展
- Denoising AutoEncoder- Sparse AutoEncoder
- 前々回の勉強会のおさらい- DNNの学習がうまくいかなかった理由
- AutoEncoder
目次
31
・Deep Learning誕生まで
・プレトレーニングの誕生と発展
- Denoising AutoEncoder- Sparse AutoEncoder
- 前々回の勉強会のおさらい- DNNの学習がうまくいかなかった理由
- AutoEncoder
Sparse AutoEncoder… 中間層が疎に活性化するように正則化をする
なるべく少ないニューロンを 発火させましょうって学習させる
input output
hidden
32
Googleの猫( Sparse AutoEncoder系 )
http://theanalyticsstore.com/deep-learning/33
ラベル付けしていないデータセットから特徴抽出に成功
まとめ
34
・NN多層化成功の要素のひとつにプレトレーニングの登場
“あくまでもDL学習方法のひとつ”
・AutoEncoderによるプレトレーニングでは入力をできる だけ復元できる中間表現への変換を求める
・より頑健に入力データを復元するためのAEのバリエーション Denoising AutoEncoderやSparse AutoEncoder
謝辞
全脳アーキテクチャ若手の会を支える 全ての皆様に感謝申し上げます.
ご清聴ありがとうございました.