center loss を読んでみた
@ABEJA_meetup_20170618
Yuma Matsuoka
自己紹介
● 松岡 佑磨
○ 法政大学大学院M1
○ 全脳アーキテクチャ若手の会 副代表
仲間を募集中!
○ 留学行きたいです
● 研究分野
○ 機械学習を用いた特徴抽出
○ 半教師あり学習
http://wbawakate.jp/member/matsuoka_yuma/ 2
論文紹介について
● どんなもの?
● 先行研究と比べてどこがすごい?
● 技術や手法のキモは?
● どうやって有効だと検証した?
● 議論はある?
● (読んでみた)感想
3
どんなもの?
4
どんなもの?
Title: A Discriminative Feature Learning Approach for Deep Face
Recognition
Authors: Yandong Wen, Kaipeng Zhang, Zhifeng Li and Yu Qiao
Publication: ECCV 2016
URL: http://ydwen.github.io/papers/WenECCV16.pdf
Authors call this method ”center loss”
5
どんなもの?
● ラベルごとに偏るような特徴空間を学習するCNN
○ CNNの分類する誤差と
特徴空間を正則化する項を同時に最小化
Loss(x, θ) = softmax loss + center loss
⇒特徴空間のデータ分布を学習に使用
○ center lossは学習によって更新し最適化が可能
● 複数の顔画像認識(認証)データセットでSOTAを達成 6
先行研究との差分
7
先行研究と比べてどこがすごい?
● (画像認識分野で高い実績を残している)CNNよりロバストで
分類に適した特徴空間を作成可能
● metric learningよりも効率的に学習可能
● 提案するcenter lossは単純に実装および組み込みが可能
(ミニバッチごとにcenter計算してpracticalに使えた)
● 顔画像認識タスクでSOTA
8
CNNの特徴空間は分類に不適切?
まずCNN(Convolutional Neural Network)[Krizhevsky+2012]とは...
9
CNNの特徴空間は分類に不適切?
まずCNN(Convolutional Neural Network)[Krizhevsky+2012]とは...
10
順伝播型ニューラルネットワーク
CNNの特徴空間は分類に不適切?
一般的な認識タスクでは分離可能な特徴空間を作る
11
CNNの特徴空間は分類に不適切?
一般的な認識タスクでは分離可能な特徴空間を作る
12
最終層の線形のニューラルネットで
識別可能な特徴空間を形成
CNNの特徴空間は分類に不適切?
顔認識タスクでは差別的な特徴空間を作ってほしい
13
CNNの特徴空間は分類に不適切?
顔認識タスクでは差別的な特徴空間を作ってほしい
14
顔画像は特徴抽出が難しく、
バリエーションが大きい!ロバスト性を求めて
クラスごとに偏りのある特徴空間を作りたい!
より適切な特徴空間作成の手法は?
metric learning:画像のペアの差分から特徴空間を学習
● siamese network[Chopra+2005]
● triplet network[Hoffer+Ailon 2015]
ペアを作ることが学習に悪影響
学習の収束が遅く不安定に
学習手順が複雑になりがち
⇒差別的な空間作成に効果的なloss関数を提案
15
技術や手法のキモはどこ?
16
技術や手法のキモはどこ?
center loss
17
softmax loss center loss
λ: ハイパーパラメータ, n: 出力層の次元数, m: ミニバッチバッチサイス,x_{i}: ミ
ニバッチにおけるcnnの出力特徴ベクトル, Wとb: cnnの出力後の線形演算の重
みとバイアス, c_{yi}: mini-batchごとに算出され更新されてきたx_{i}と対応する
クラスyの平均特徴ベクトル
技術や手法のキモはどこ?
center lossの実装方法
18
どうやって有効だと検証した?
19
どうやって有効だと検証した?
● 特徴空間の検証
○ Toy example: MNIST
● practical な性能検証(顔画像認識タスク)
○ LFW[Haung+2007]
○ YTF[Wolf+2011]
○ MegaFace Challenge[Miller+2015]
20
MNISTデータセット
MNIST[LeCun+1998]
● 60,000 images which is hand written digit 28×28 images
● A number of training images = 60,000
● A number of validation images = 10,000
21
特徴空間の検証
22
MNISTにおける検証実験(only softmax loss)
CNNの出力を2次元にして特徴空間を可視化
使用したCNNモデル: LeNets++
23training data onsoftmax loss training data onsoftmax loss
MNISTにおける検証実験(only softmax loss)
CNNの出力を2次元にして特徴空間を可視化
使用したCNNモデル: LeNets++
24
validation dataではラベルに対応する
ベクトル群のクラス内分散が大きい
training data onsoftmax loss training data onsoftmax loss
MNISTにおける検証実験(with center loss)
center lossによる形成される特徴空間の違い
only softmax loss
center loss 25
validation dataではラベルに対応する
ベクトル群のクラス内分散が大きい
MNISTにおける検証実験(with center loss)
center lossによる形成される特徴空間の違い
only softmax loss
center loss 26
validation dataではラベルに対応する
ベクトル群のクラス内分散が大きい
クラスごとに偏るような特徴空間を
形成できている
practicalな実験にいってみる
27
LFW and YTF データセット
● LFW(Labeled Faces in the Wild)
○ 5,749人から13,233枚抽出した画像で構成。一部の6,000ペアでテスト
● YTF(YouTube Faces)
○ 1,595人から3,425個の動画ベースで構成。一部の5,000ペアでテスト
28
LFWとYTFにおける検証
使用したCNNモデル
29
LFWとYTFにおける検証
A: only softmax, B: A + contrastive, C: A + center loss
30
LFWとYTFにおける検証
A: only softmax, B: A + contrastive, C: A + center loss
31
学習用データ数が著しく少なくてもSOTOと同程度の精度を達成
MegaFaceデータセット
ImageNetの顔画像verのような大規模データセット
学習データは100万枚を超える
32
MegaFaceの検証実験
少ないデータ数の
枠組み(“small”)で
SOTA
33
議論はある?
only softmax lossと比べて metric learningのcontrastive
lossを加えたモデルは精度が上がるが学習コストが上がる
提案するcenter lossなら学習コストは上がらず
CNNの制約として効果的である
34
感想①
● 工夫した単純な正則化項の実装だけのスマートな手法
● 一般物体認識タスクでは精度がでないの?
● ラベル推定はコサイン類似度使ってるけど、
どの特徴ベクトルとの類似度計算して推定してるの?
35
感想②
● 先行研究のmetric learning(triplet network)と
性能(精度・速度)比較してない...
● metric learningは分類に関するlossがないので
クラス数に関係のない全結合層を設計できる
● centerの計算に関して、クラス数とバッチサイズ問題をどう
解決するか?
36
参考文献
● [Krizhevsky+2012] A. Krizhevsky et al. Imagenet classification with deep
convolutional neural networks. In Proceedings of Neural Information
Processing Systems, pp. 1097-1105, 2012.
● [Chopra+2005] S. Chopra et al. Learning a similarity metric discriminatively,
with application to face verication. In Proceedings of IEEE Conference on
Computer Vision and Pattern Recognition, pp. 539-546, 2005.
● [Hoffer+Ailon 2015] E. Hoffer and N. Ailon. DEEP METRIC LEARNING
USING TRIPLET NETWORK. In Proceedings of International Workshop on
Similarity-Based Pattern Recognition, 2015.
● [Wang+2014] J. Wang et al. Learning ne-grained image similarity with deep
ranking. In Proceedings of IEEE Conference on Computer Vision and
Pattern Recognition,pp. 1386-1393, 2014.
37
参考文献
● [Taigman+2014] Y. Taigman et al. Deepface: Closing the gap to
human-level performance in face verification. In Proceedings of the IEEE
Conference on Computer Vision and Pattern Recognition. 2014.
● [Wolf+2011] L. Wolf et al. Face recognition in unconstrained videos with
matched background similarity. In Proceedings of the IEEE Conference on
Computer Vision and Pattern Recognition, 2011.
● [Miller+2015] D. Miller et al. Megaface: A million faces for recognition at
scale. arXiv preprint arXiv:1505.02108, 2015.
38
まとめ
● ラベルごとに偏るような特徴空間を学習するCNN
○ CNNの分類する誤差と
特徴空間を正則化する項を同時に最小化
Loss(x, θ) = softmax loss + center loss
⇒特徴空間のデータ分布を学習に使用
○ center lossは学習によって更新し最適化が可能
● 複数の顔画像認識(認証)データセットでSOTAを達成 39
(比較対象)metric learning 40
triplet network[Hoffer+2014, Wang+2014]
Hoffer’s loss function
Wang’s loss function
center loss v.s. triplet network on MNIST
center loss
training data=50,000
feature vectors of 10,000
validation image
triplet network
trianing data=100
feature vectors of 59,900
validation images 41

More Related Content

PDF
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
PDF
【DL輪読会】Hierarchical Text-Conditional Image Generation with CLIP Latents
PDF
実装レベルで学ぶVQVAE
PDF
SSII2021 [OS2-03] 自己教師あり学習における対照学習の基礎と応用
PPTX
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
PDF
Generative Models(メタサーベイ )
PPTX
【DL輪読会】時系列予測 Transfomers の精度向上手法
PPTX
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
【DL輪読会】Hierarchical Text-Conditional Image Generation with CLIP Latents
実装レベルで学ぶVQVAE
SSII2021 [OS2-03] 自己教師あり学習における対照学習の基礎と応用
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
Generative Models(メタサーベイ )
【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】言語以外でのTransformerのまとめ (ViT, Perceiver, Frozen Pretrained Transformer etc)

What's hot (20)

PDF
【DL輪読会】Mastering Diverse Domains through World Models
PPTX
[DL輪読会] MoCoGAN: Decomposing Motion and Content for Video Generation
PPTX
[DL輪読会]相互情報量最大化による表現学習
PPTX
[DL輪読会]Learning Latent Dynamics for Planning from Pixels
PPTX
モデル高速化百選
PDF
High-impact Papers in Computer Vision: 歴史を変えた/トレンドを創る論文
PPTX
【DL輪読会】Transformers are Sample Efficient World Models
PPTX
[DL輪読会]Flow-based Deep Generative Models
PDF
[DL輪読会]近年のエネルギーベースモデルの進展
PDF
Deep Learningによる画像認識革命 ー歴史・最新理論から実践応用までー
PPTX
DeBERTaV3: Improving DeBERTa using ELECTRA-Style Pre-Training with Gradient-D...
PDF
Introduction to YOLO detection model
PPTX
【DL輪読会】ViT + Self Supervised Learningまとめ
PDF
画像生成・生成モデル メタサーベイ
PDF
Generating Diverse High-Fidelity Images with VQ-VAE-2
PDF
自己教師学習(Self-Supervised Learning)
PDF
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...
PDF
[DL輪読会]Energy-based generative adversarial networks
PDF
Deep Learningによる超解像の進歩
PDF
[DL輪読会]画像を使ったSim2Realの現況
【DL輪読会】Mastering Diverse Domains through World Models
[DL輪読会] MoCoGAN: Decomposing Motion and Content for Video Generation
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]Learning Latent Dynamics for Planning from Pixels
モデル高速化百選
High-impact Papers in Computer Vision: 歴史を変えた/トレンドを創る論文
【DL輪読会】Transformers are Sample Efficient World Models
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]近年のエネルギーベースモデルの進展
Deep Learningによる画像認識革命 ー歴史・最新理論から実践応用までー
DeBERTaV3: Improving DeBERTa using ELECTRA-Style Pre-Training with Gradient-D...
Introduction to YOLO detection model
【DL輪読会】ViT + Self Supervised Learningまとめ
画像生成・生成モデル メタサーベイ
Generating Diverse High-Fidelity Images with VQ-VAE-2
自己教師学習(Self-Supervised Learning)
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...
[DL輪読会]Energy-based generative adversarial networks
Deep Learningによる超解像の進歩
[DL輪読会]画像を使ったSim2Realの現況
Ad

Similar to Centerlossを読んでみた_20170618@abeja (20)

PPTX
ArcFace: Additive Angular Margin Loss for Deep Face Recognition
ODP
Introduction to "Facial Landmark Detection by Deep Multi-task Learning"
PDF
R-CNNの原理とここ数年の流れ
PDF
cvpaper.challenge in CVPR2015 (PRMU2015年12月)
PDF
これからのコンピュータビジョン技術 - cvpaper.challenge in PRMU Grand Challenge 2016 (PRMU研究会 2...
PDF
MIRU_Preview_JSAI2019
PDF
Deep residual learning for image recognition
PDF
深層学習 - 画像認識のための深層学習 ②
PPTX
CVPR2018 pix2pixHD論文紹介 (CV勉強会@関東)
PPTX
CNTK deep dive
PDF
【2015.05】cvpaper.challenge@CVPR2015
PPTX
Triplet Loss 徹底解説
PDF
When NAS Meets Robustness: In Search of Robust Architectures against Adversar...
PDF
PDF
【チュートリアル】コンピュータビジョンによる動画認識 v2
PDF
When NAS Meets Robustness: In Search of Robust Architectures against Adversar...
PDF
深層学習 - 画像認識のための深層学習 ①
PPTX
CVPR 2017 報告
PDF
Convolutional Neural Networks のトレンド @WBAFLカジュアルトーク#2
PPTX
Image net classification with Deep Convolutional Neural Networks
ArcFace: Additive Angular Margin Loss for Deep Face Recognition
Introduction to "Facial Landmark Detection by Deep Multi-task Learning"
R-CNNの原理とここ数年の流れ
cvpaper.challenge in CVPR2015 (PRMU2015年12月)
これからのコンピュータビジョン技術 - cvpaper.challenge in PRMU Grand Challenge 2016 (PRMU研究会 2...
MIRU_Preview_JSAI2019
Deep residual learning for image recognition
深層学習 - 画像認識のための深層学習 ②
CVPR2018 pix2pixHD論文紹介 (CV勉強会@関東)
CNTK deep dive
【2015.05】cvpaper.challenge@CVPR2015
Triplet Loss 徹底解説
When NAS Meets Robustness: In Search of Robust Architectures against Adversar...
【チュートリアル】コンピュータビジョンによる動画認識 v2
When NAS Meets Robustness: In Search of Robust Architectures against Adversar...
深層学習 - 画像認識のための深層学習 ①
CVPR 2017 報告
Convolutional Neural Networks のトレンド @WBAFLカジュアルトーク#2
Image net classification with Deep Convolutional Neural Networks
Ad

More from YumaMatsuoka (8)

PDF
20190214 Tobita Tech Yuma Matsuoka AI Tech
PDF
[配布用]トビタテ帰国報告会_20181121@法政小金井キャンパス
PDF
ml_15min_tobitate_tech_8th
PDF
TFUG_yuma_matsuoka__distributed_GPU
PDF
オープニング@第18回全脳アーキテクチャ若手の会 カジュアルトーク
PDF
WBA若手の会は○○な場@第17回Wbaカジュアルトーク
PDF
Autoencoderの実装と愉快な仲間との比較
PDF
海馬と記憶モデル 松岡佑磨
20190214 Tobita Tech Yuma Matsuoka AI Tech
[配布用]トビタテ帰国報告会_20181121@法政小金井キャンパス
ml_15min_tobitate_tech_8th
TFUG_yuma_matsuoka__distributed_GPU
オープニング@第18回全脳アーキテクチャ若手の会 カジュアルトーク
WBA若手の会は○○な場@第17回Wbaカジュアルトーク
Autoencoderの実装と愉快な仲間との比較
海馬と記憶モデル 松岡佑磨

Centerlossを読んでみた_20170618@abeja