SlideShare a Scribd company logo
ResNetと派生研究の紹介
2016-06-04
Masataka Nishimori
主旨
● ResNetとは何か?
● ResNetの派生研究ではどういったものがあるのか?
● TensorFlowで実装してみて気づいたこと
ResNetとは
● 概要
- Deep Residual Network[1]の略称
- MSRA開発のImageNet 2015優勝アルゴリズム
- 残差(Residual)を取り入れることで多層でも性能劣化軽減
- ImageNetでは152層と非常に多層(従来は20層程度)
[1]. He, Kaiming, et al. "Deep Residual Learning for Image Recognition." arXiv preprint arXiv:1512.03385 (2015).
引用: He, Kaiming, et al. "Identity mappings in deep residual networks." arXiv preprint arXiv:1603.05027 (2016).
どれぐらい深いのか?
引用: Deep Residual Learning MSRA @ ILSVRC & COCO 2015 competitions
- 2014年優勝アルゴリズムの7倍近く層数が増加.
- 1000層以上のネットワークも論文中で提案.
深ければ良いのか?
● 少なくとも広いよりは深い方が良いらしい.[1]
[1]. Eldan, Ronen, and Ohad Shamir. "The Power of Depth for Feedforward Neural Networks." arXiv preprint
arXiv:1512.03965 (2015).
単純に多層にすると...
引用: He, Kaiming, et al. "Deep Residual Learning for Image Recognition." arXiv preprint arXiv:1512.03385 (2015).
● 従来は性能が悪くなる
● CIFAR 10の例(左: 従来, 右: ResNet)
● 多層だと従来は誤差増加
なぜ多層にするのが難しいのか?
● 勾配の消失
○ 原因
■ 逆誤差伝播で小さな重みが何度も乗算されるため[1]
○ 緩和方法
■ Careful Initialization[2]
■ Hidden Layer Supervision[3]
■ Batch Normalization[4]
■ ResNetのIdentity Mapping(後述)
[1]. Huang, Gao, et al. "Deep networks with stochastic depth." arXiv preprint arXiv:1603.09382 (2016).
[2]. Glorot, X., Bengio, Y.: Understanding the difficulty of training deep feedforward
neural networks. In: International conference on artificial intelligence and statistics. (2010) 249–256
[3] Lee, C.Y., Xie, S., Gallagher, P., Zhang, Z., Tu, Z.: Deeply-supervised nets. arXiv preprint arXiv:1409.5185 (2014)
[4] Ioffe, S., Szegedy, C.: Batch normalization: Accelerating deep network training
by reducing internal covariate shift. arXiv preprint arXiv:1502.03167 (2015)
なぜ多層にするのが難しいのか?
● 特徴量情報の劣化
○ 原因
■ FeedWorwardでランダムに初期化された重みによって特徴が消
えてしまい,後ろの層に伝わってくれないため[1]
○ 緩和方法
■ ResNetのIdentity Mapping(後述)
[1]. Huang, Gao, et al. "Deep networks with stochastic depth." arXiv preprint arXiv:1603.09382 (2016).
なぜ多層にするのが難しいのか?
● 学習に時間がかかる
○ 原因
■ 層数が増えるほど計算時間も増加.
■ ResNetもImageNet用に数週間学習に費やす[1].
■ TITAN X(1台)だとCIFAR10で20層:2時間, 110層:半日程度
○ 緩和方法
■ 金と時間(ResNet)[2]
■ Dropoutで確率的に層数を変更[1](後述)
[1]. Huang, Gao, et al. "Deep networks with stochastic depth." arXiv preprint arXiv:1603.09382 (2016).
[2]. He, Kaiming, et al. "Deep Residual Learning for Image Recognition." arXiv preprint arXiv:1512.03385 (2015).
ResNetのIdentity Mappingとは
従来のネットワーク
ショートカットする道を作り,何層も前の層を情報を足す.
この足し上げる部分のことをIdentity Mappingと呼ぶ.
引用: Deep Residual Learning MSRA @ ILSVRC & COCO 2015 competitions
なぜ解決できているのか?
うまく学習できているとき
● xが最適であれば,weight
layer部分は0になってショ
ートカット部分のみで良い.
● 最適付近なら,重みを少し
だけ更新してあげれば良い
なぜ解決できているのか?
● 前の前の層を足すことで,
Feed Forward時に特徴量の
情報の消失を防いでいる.
● 逆誤差伝播時にも消失が起
こりづらい形式で学習でき
るようになっている.
CIFAR 10での実験
左: 従来手法, 右: ResNet. 太線: テスト誤差, 破線: 検証誤差
ResNetをCIFAR 10で実験してみても,層数が増えるほど精度が上がる
ただ,いろいろと疑問は残る
● モデル構造
○ ほんとにその構造が最良?[1,2,3]
● 最適化手法
○ SGD+Momentumが最良?[3]
● 学習時間
○ なんとか節約できないか?[4]
結果,派生研究が大量に出現する.
[1]. He, Kaiming, et al. "Identity mappings in deep residual networks." arXiv
preprint arXiv:1603.05027 (2016).
[2]. Szegedy, Christian, Sergey Ioffe, and Vincent Vanhoucke. "Inception-v4,
inception-resnet and the impact of residual connections on learning." arXiv
preprint arXiv:1602.07261 (2016).
[3]. Training and investigating Residual Nets
[4]. Huang, Gao, et al. "Deep networks with stochastic depth." arXiv preprint
arXiv:1603.09382 (2016).
派生研究: モデル構造
● ResNet考案者の追加実験.
● BN(Batch Norm)とRELUの位置での性能評価
○ BNとReLUを畳み込みの前に行う方式が一番性能がよいとの報告
引用: He, Kaiming, et al. "Identity mappings in deep residual networks." arXiv preprint arXiv:1603.05027 (2016).
派生研究: モデル構造
注). NSize=18は110層の意, BN: Batch Norm
そもそも最後のReLUが要らないという報告
引用: Training and investigating Residual Nets
実験: モデル構造
● 32層でCIFAR 10に適用
● 元の論文通りが最良
● 層数が増えると,BN, ReLU両方前が良いのかも
派生研究: モデル構造
● Googleの論文
● Image Net ClassificationでResNet
を超える精度を出せるよう改良し
てみたという内容
● Top Error-5
○ ResNet: 3.57%
○ 本論文: 3.08%
[1]. Inception-v4, Inception-ResNet and the Impact of Residual Connections on Learning
こうやって
これがこうなって
...
こうじゃ!
知見
● 1000層を超えると不安定になってく
るので,0.1 〜 0.3倍をInception部分
にかけてあげると良い
派生研究: 最適化手法の変更
● 110層ReNetでCIFAR 10に適用
● 論文通りが最良
引用: Training and investigating Residual Nets
実験: 最適化手法の変更
自前でやってみても論文通りが最良
(32層ResNetでCIFAR 10に適用)
派生研究: 時間短縮
● 確率的にショートカットのみを残すようにす
ることで,時間短縮を実現.
● 従来のResNetよりも精度向上
引用: Huang, Gao, et al. "Deep networks with stochastic depth." arXiv preprint arXiv:1603.09382 (2016).
実装時に気づいたこと
● 重みの初期化方法に気をつける.
○ 0.01のガウス分布で適当に初期化とかするとダメ.
○ std = √(2/(k*k*c)) で初期化(k = カーネルサイズ, c = チャンネル数)[1]
● 畳み込み層ではバイアスを追加しないようにする.
● Adamを使っとけば良いとか思わない.
● Global Average Poolingは[2]参照
[1]. He, Kaiming, et al. "Delving deep into rectifiers: Surpassing human-level performance on imagenet
classification." Proceedings of the IEEE International Conference on Computer Vision. 2015.
[2]. Lin, Min, Qiang Chen, and Shuicheng Yan. "Network in network." arXiv preprint arXiv:1312.4400 (2013).
結論
● ResNet
○ 残差で100層以上でも安定して学習できるようになった
● 派生研究
○ モデル構造
■ 畳み込む前にBN+ReLUが良さそう
○ 最適化手法
■ SGD+Momentumが現状では最良
○ 時間短縮
■ Dropoutを使う.
● リポジトリ
○ https://github.com/namakemono/cifar10-tensorflow
References
[1] He, Kaiming, et al. "Deep Residual Learning for Image Recognition." arXiv preprint
arXiv:1512.03385 (2015).
ResNetの論文
[2] Ioffe, Sergey, and Christian Szegedy. "Batch normalization: Accelerating deep network training by
reducing internal covariate shift." arXiv preprint arXiv:1502.03167 (2015).
Batch Normについての論文
[3]. He, Kaiming, et al. "Identity mappings in deep residual networks." arXiv preprint arXiv:1603.05027
(2016).
ResNetのモデル構造に関する考察
[4]. He, Kaiming, et al. "Delving deep into rectifiers: Surpassing human-level performance on imagenet
classification." Proceedings of the IEEE International Conference on Computer Vision. 2015.
ResNetの重みの初期化方法記載
References
[5]. Training and investigating Residual Nets,
ResNetのモデルと最適化手法の変更による性能比較
[6]. CS231n Convolutional Neural Networks for Visual Recognition,
Leaning Rate変更による考察
[7]. Eldan, Ronen, and Ohad Shamir. "The Power of Depth for Feedforward Neural Networks." arXiv
preprint arXiv:1512.03965 (2015).
広くより深くのほうが性能高いことを説明している論文
[8]. Huang, Gao, et al. "Deep networks with stochastic depth." arXiv preprint arXiv:1603.09382 (2016).
Dropoutの導入で時間短縮を実現

More Related Content

What's hot (20)

PPTX
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
Yusuke Uchida
 
PPTX
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
Deep Learning JP
 
PPTX
[DL輪読会]Flow-based Deep Generative Models
Deep Learning JP
 
PDF
【DL輪読会】DINOv2: Learning Robust Visual Features without Supervision
Deep Learning JP
 
PPTX
MS COCO Dataset Introduction
Shinagawa Seitaro
 
PDF
2値分類・多クラス分類
t dev
 
PDF
【DL輪読会】HRDA: Context-Aware High-Resolution Domain-Adaptive Semantic Segmentat...
Deep Learning JP
 
PPTX
SegFormer: Simple and Efficient Design for Semantic Segmentation with Transfo...
harmonylab
 
PDF
モデルアーキテクチャ観点からのDeep Neural Network高速化
Yusuke Uchida
 
PPTX
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
Deep Learning JP
 
PDF
楽しい研究のために今からできること 〜新しく研究を始める皆さんへ〜
諒介 荒木
 
PDF
Transformer メタサーベイ
cvpaper. challenge
 
PDF
変分推論と Normalizing Flow
Akihiro Nitta
 
PDF
【メタサーベイ】数式ドリブン教師あり学習
cvpaper. challenge
 
PPTX
Transformerを雰囲気で理解する
AtsukiYamaguchi1
 
PDF
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII
 
PDF
Introduction to Prioritized Experience Replay
WEBFARMER. ltd.
 
PPTX
Curriculum Learning (関東CV勉強会)
Yoshitaka Ushiku
 
PDF
【DL輪読会】Segment Anything
Deep Learning JP
 
PDF
深層生成モデルを用いたマルチモーダル学習
Masahiro Suzuki
 
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
Yusuke Uchida
 
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
Deep Learning JP
 
[DL輪読会]Flow-based Deep Generative Models
Deep Learning JP
 
【DL輪読会】DINOv2: Learning Robust Visual Features without Supervision
Deep Learning JP
 
MS COCO Dataset Introduction
Shinagawa Seitaro
 
2値分類・多クラス分類
t dev
 
【DL輪読会】HRDA: Context-Aware High-Resolution Domain-Adaptive Semantic Segmentat...
Deep Learning JP
 
SegFormer: Simple and Efficient Design for Semantic Segmentation with Transfo...
harmonylab
 
モデルアーキテクチャ観点からのDeep Neural Network高速化
Yusuke Uchida
 
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
Deep Learning JP
 
楽しい研究のために今からできること 〜新しく研究を始める皆さんへ〜
諒介 荒木
 
Transformer メタサーベイ
cvpaper. challenge
 
変分推論と Normalizing Flow
Akihiro Nitta
 
【メタサーベイ】数式ドリブン教師あり学習
cvpaper. challenge
 
Transformerを雰囲気で理解する
AtsukiYamaguchi1
 
SSII2022 [SS2] 少ないデータやラベルを効率的に活用する機械学習技術 〜 足りない情報をどのように補うか?〜
SSII
 
Introduction to Prioritized Experience Replay
WEBFARMER. ltd.
 
Curriculum Learning (関東CV勉強会)
Yoshitaka Ushiku
 
【DL輪読会】Segment Anything
Deep Learning JP
 
深層生成モデルを用いたマルチモーダル学習
Masahiro Suzuki
 

Viewers also liked (7)

PPTX
5分で分るWebRTCコーデックウォーズ
Yusuke Naka
 
PDF
Apache Sparkのご紹介 (後半:技術トピック)
NTT DATA OSS Professional Services
 
PDF
Apache Spark の紹介(前半:Sparkのキホン)
NTT DATA OSS Professional Services
 
PDF
Apache Spark超入門 (Hadoop / Spark Conference Japan 2016 講演資料)
NTT DATA OSS Professional Services
 
PPTX
Jupyter NotebookとChainerで楽々Deep Learning
Jun-ya Norimatsu
 
PDF
Apache Sparkに手を出してヤケドしないための基本 ~「Apache Spark入門より」~ (デブサミ 2016 講演資料)
NTT DATA OSS Professional Services
 
PDF
Deep Learningと画像認識   ~歴史・理論・実践~
nlab_utokyo
 
5分で分るWebRTCコーデックウォーズ
Yusuke Naka
 
Apache Sparkのご紹介 (後半:技術トピック)
NTT DATA OSS Professional Services
 
Apache Spark の紹介(前半:Sparkのキホン)
NTT DATA OSS Professional Services
 
Apache Spark超入門 (Hadoop / Spark Conference Japan 2016 講演資料)
NTT DATA OSS Professional Services
 
Jupyter NotebookとChainerで楽々Deep Learning
Jun-ya Norimatsu
 
Apache Sparkに手を出してヤケドしないための基本 ~「Apache Spark入門より」~ (デブサミ 2016 講演資料)
NTT DATA OSS Professional Services
 
Deep Learningと画像認識   ~歴史・理論・実践~
nlab_utokyo
 
Ad

Similar to Res netと派生研究の紹介 (20)

PDF
Deep residual learning for image recognition
禎晃 山崎
 
PPTX
畳み込みニューラルネットワークの高精度化と高速化
Yusuke Uchida
 
PPTX
Image net classification with Deep Convolutional Neural Networks
Shingo Horiuchi
 
PDF
[論文紹介] Convolutional Neural Network(CNN)による超解像
Rei Takami
 
PDF
(2021年8月版)深層学習によるImage Classificaitonの発展
Takumi Ohkuma
 
PPTX
Densely Connected Convolutional Networks
harmonylab
 
PDF
(2022年3月版)深層学習によるImage Classificaitonの発展
Takumi Ohkuma
 
PDF
文献紹介:R-MNet: A Perceptual Adversarial Network for Image Inpainting
Toru Tamaki
 
PDF
MIRU_Preview_JSAI2019
Takayoshi Yamashita
 
PDF
論文紹介 Pixel Recurrent Neural Networks
Seiya Tokui
 
PPTX
PRML 5.5.6-5.6 畳み込みネットワーク(CNN)・ソフト重み共有・混合密度ネットワーク
KokiTakamiya
 
PPTX
Deep Learning on Rescale - Oct/11/2016 at Rescale night
Rescale Japan株式会社
 
PDF
When NAS Meets Robustness: In Search of Robust Architectures against Adversar...
MasanoriSuganuma
 
PDF
Tutorial-DeepLearning-PCSJ-IMPS2016
Takayoshi Yamashita
 
PDF
ConvNetの歴史とResNet亜種、ベストプラクティス
Yusuke Uchida
 
PPTX
CVPR2018 pix2pixHD論文紹介 (CV勉強会@関東)
Tenki Lee
 
PDF
Convolutional Neural Networks のトレンド @WBAFLカジュアルトーク#2
Daiki Shimada
 
PDF
R-CNNの原理とここ数年の流れ
Kazuki Motohashi
 
PDF
0から理解するニューラルネットアーキテクチャサーチ(NAS)
MasanoriSuganuma
 
PDF
When NAS Meets Robustness: In Search of Robust Architectures against Adversar...
MasanoriSuganuma
 
Deep residual learning for image recognition
禎晃 山崎
 
畳み込みニューラルネットワークの高精度化と高速化
Yusuke Uchida
 
Image net classification with Deep Convolutional Neural Networks
Shingo Horiuchi
 
[論文紹介] Convolutional Neural Network(CNN)による超解像
Rei Takami
 
(2021年8月版)深層学習によるImage Classificaitonの発展
Takumi Ohkuma
 
Densely Connected Convolutional Networks
harmonylab
 
(2022年3月版)深層学習によるImage Classificaitonの発展
Takumi Ohkuma
 
文献紹介:R-MNet: A Perceptual Adversarial Network for Image Inpainting
Toru Tamaki
 
MIRU_Preview_JSAI2019
Takayoshi Yamashita
 
論文紹介 Pixel Recurrent Neural Networks
Seiya Tokui
 
PRML 5.5.6-5.6 畳み込みネットワーク(CNN)・ソフト重み共有・混合密度ネットワーク
KokiTakamiya
 
Deep Learning on Rescale - Oct/11/2016 at Rescale night
Rescale Japan株式会社
 
When NAS Meets Robustness: In Search of Robust Architectures against Adversar...
MasanoriSuganuma
 
Tutorial-DeepLearning-PCSJ-IMPS2016
Takayoshi Yamashita
 
ConvNetの歴史とResNet亜種、ベストプラクティス
Yusuke Uchida
 
CVPR2018 pix2pixHD論文紹介 (CV勉強会@関東)
Tenki Lee
 
Convolutional Neural Networks のトレンド @WBAFLカジュアルトーク#2
Daiki Shimada
 
R-CNNの原理とここ数年の流れ
Kazuki Motohashi
 
0から理解するニューラルネットアーキテクチャサーチ(NAS)
MasanoriSuganuma
 
When NAS Meets Robustness: In Search of Robust Architectures against Adversar...
MasanoriSuganuma
 
Ad

Recently uploaded (10)

PDF
生成AIパネルトーク(Interop25Tokyo APPS JAPAN M1-07,M2-07 嶋ポジショントーク)
嶋 是一 (Yoshikazu SHIMA)
 
PDF
SIG-AUDIO 2025 Vol.02 オンラインセミナー SIG-Audioプレゼン資料_オーディオプラグイン開発_塩澤達矢.pdf
IGDA Japan SIG-Audio
 
PDF
プライバシ保護のためのインターネットアーキテクチャの進化 (2025-07-11)
Jun Kurihara
 
PDF
Hyperledger Fabric最新v3.x系での機能強化、変更点にキャッチアップ!
LFDT Tokyo Meetup
 
PDF
人気ブロックチェーン基盤「Hyperledger Fabric」最新版を動かしてみた!
LFDT Tokyo Meetup
 
PDF
[Hardening Designers Confernece 2025]ランサムウェアでの見えざるログ・見えるログ
kataware
 
PDF
Hyperledger Fabric公式サンプル fabric-samples徹底解説
LFDT Tokyo Meetup
 
PDF
ABC2025S LT講演「世界の窓から Androidこんにちは2025」アプリ自動生成の将来?ロボティクスの夢再び?
嶋 是一 (Yoshikazu SHIMA)
 
PDF
20250710_Devinで切り拓くDB革命_〜価値創出に集中せよ〜.pdf
Masaki Yamakawa
 
PDF
20250630_aws_reinforce_2025_aws_sheild_network_security_director
uedayuki
 
生成AIパネルトーク(Interop25Tokyo APPS JAPAN M1-07,M2-07 嶋ポジショントーク)
嶋 是一 (Yoshikazu SHIMA)
 
SIG-AUDIO 2025 Vol.02 オンラインセミナー SIG-Audioプレゼン資料_オーディオプラグイン開発_塩澤達矢.pdf
IGDA Japan SIG-Audio
 
プライバシ保護のためのインターネットアーキテクチャの進化 (2025-07-11)
Jun Kurihara
 
Hyperledger Fabric最新v3.x系での機能強化、変更点にキャッチアップ!
LFDT Tokyo Meetup
 
人気ブロックチェーン基盤「Hyperledger Fabric」最新版を動かしてみた!
LFDT Tokyo Meetup
 
[Hardening Designers Confernece 2025]ランサムウェアでの見えざるログ・見えるログ
kataware
 
Hyperledger Fabric公式サンプル fabric-samples徹底解説
LFDT Tokyo Meetup
 
ABC2025S LT講演「世界の窓から Androidこんにちは2025」アプリ自動生成の将来?ロボティクスの夢再び?
嶋 是一 (Yoshikazu SHIMA)
 
20250710_Devinで切り拓くDB革命_〜価値創出に集中せよ〜.pdf
Masaki Yamakawa
 
20250630_aws_reinforce_2025_aws_sheild_network_security_director
uedayuki
 

Res netと派生研究の紹介