SlideShare a Scribd company logo
Kerasを用いた3次元検索エ
ンジン@TFUG
2017.11.16 Masaya Ogushi
The Goal▸ 戦略:深層学習の初期プロダクト作成までのアプローチ
について知ってもらう
▸ 戦略を適用した結果:Kerasを用いた3次元CNNの手法
について知ってもらう
注意:今回の発表内容はあくまで個人の見解なので他の方のアプローチも知りたいです
2
Table of Contents
戦略
1. 正しい問題を探す
2. 正しい方法を探す
a. 情報を集める
3. チャレンジし続ける
a. 小さく試す
b. チャレンジを多くする
4. フォーカス
a. 正しい問題にフォーカスする
b. 正しい方法の重要度を上げる
3
Reference: https://www.iconfinder.com/
Table of Contents
戦略を適用
1. Deep Learning Model: VoxNet
a. 3D CNN
b. 3D Max Pool
c. Fully connected
d. Output
e. Train
2. 性能を向上するための技術
a. 精度
b. 速度
3. 結果
4
自己紹介
・大串 正矢
・株式会社カブク
・機械学習エンジニア
Twitter: @SnowGushiGit
5
Kabuku Inc.
・要求に応じた製造サービス
の提供
- 3Dデータを受け取り3D
printerなどを使って製造
を発注するケースがある
6
https://www.kabuku.co.jp/
戦略
7
戦略
正しい問題を探す
8
“Deep Learningであなたの問題の解
決したいですか?
正しい問題を探す
▸ Deep learningを使用するのにベストなケー
スは?
▹ 大抵のケース
▹ 画像処理
▹ 音声認識
▹ いくつかのケース
▹ 自然言語処理
▹ 時系列解析
10
正しい問題を探す
▸ Deep learningを使用するのにワーストな
ケースは?
▹ 十分な学習データがない
▹ 事前学習済みモデルを用意出来ない
▹ 100%の精度が必要(機械学習全般)
11
戦略
正しい方法を探す
12
“
問題解決するためにベストな方法を
どうやって探してますか?
“ググるか !!
“
ちょっと待って
Find the Right method
▸ どのようにDeep Learning のベストな解決
法を探しているか? (私の場合)
▹ Google scholar
▹ 論文検索用のエンジン
▹ 下記のことが得られます。
▹ 良い方法
▹ 良いキーワード
▹ どの大学や研究室がその問題に対して詳しいか
▹ メールマガジン
▹ 配信者によって洗練された情報を取得
16
Find the Right method
▸ どのようにDeep Learning のベストな解決
法を探しているか? (私の場合)
▹ 大学の研究室のサイト
▹ データがゲット出来るかも
▹ コードがゲット出来るかも
▹ GitXiv
▹ コードと論文がセットになっているサイト
▹ Twitter
▹ 最新の情報が取得出来るかも
17
Find the Right method
▸ どのようにDeep Learning のベストな解決法
を探しているか? (私の場合)
▹ 書籍
▹ 体系的な知識
▹ ArXiv
▹ 最新の手法
▹ Github
▹ 実行可能なコード
▹ Google
▹ 上記で良いキーワードを知っているのでググる!
18
戦略
チャレンジし続ける
19
“大量の学習データが集まった!!
このデータ全て使用して学習!!
“
ちょっと待って
チャレンジし続ける
▸ 小さく試す
▹ もし大量の学習データを取得したら下記のことを試
してください。
▹ 小さな学習データを準備
▹ モジュールが正しく動作するか確認
▹ 確認が簡単な綺麗なデータを使用
▹ 大抵のモデルは“mnist”などでのデータが学習可能なので
それで動作を確認する
22
Reference: https://www.tensorflow.org/get_started/mnist/beginners
チャレンジし続ける
▸ 多くのチャレンジ
▹ 精度を上げる手法は明確に分からない
▹ 結果の確認は必須
▹ 学習データのロス、バリデーションデータのロスが下がらない場
合は止めましょう。
▹ TensorBoardのような可視化ツールの使用
▹ チャレンジの回数を増やすために計算速度を向上
しましょう。
▹ GPUの使用
▹ CPU最適化
23
戦略
フォーカス
24
“
Deep learning は精度向上の手法が
多い。
“- モデル
- どれだけ深くする?
- どんな構造?
- ハイパーパラメータの調整
- データの前処理
- データ オーギュメンテーション
- Optimizer
- SGD, Adam, など
フォーカス
▸ 正しい問題にフォーカス
▹ あなたの状況に依存
▹ 十分な計算資源と十分なデータ
▹ 深く複雑なモデルに挑戦
▹ 十分な計算資源だがデータが十分にない
▹ 学習済みモデルを探す
▹ 前処理とデータオーギュメンテーションにフォーカス
27
Focus
▸ 正しい問題にフォーカス
▹ あなたの状況に依存
▹ 十分な計算資源がなく十分なデータもない
▹ 他の方法を考えましょう
▹ ロジスティック回帰、ランダムフォレストなど
▹ Deep learningは多分ベストチョイスではないです
28
戦略を適用
Deep Learning applied to 3D objects
29
戦略を適用
Deep Learning Model: VoxNet
30
“深層学習のモデルは多数存在...
どのようにモデルを選ぶか
Deep Learning Model: VoxNet
32
▸ 下記の3つを考慮しました(自分のケース)
▹ リソース
▹ コンピューターリソース
▹ 人手
▹ パフォーマンス
▹ 要求性能
▹ 速度
▹ 実現スピード
Deep Learning Model: VoxNet
33
Reference: http://ri.cmu.edu/pub_files/2015/9/voxnet_maturana_scherer_iros15.pdf.
Deep Learning Model: VoxNet
34
▸ VoxNet 利点
▹ リソース
▹ 計算資源
▹ 良い
▹ Memory 32GB (In my environment)
▹ GPU GeForce GTX 1080 (In my environment)
▹ パフォーマンス
▹ 精度
▹ 83 % accuracy (Top model 95 %)
▹ 開発速度
▹ オープンソース, シンプルなコード
35
Deep Learning Model: VoxNet
▸ Voxelize
▹ 3D データ を 32 * 32 * 32 ボクセル
データへ
▹ データのサイズを減らす
Deep Learning Model: VoxNet (3D CNN 3D objects)
36
▸ Convolution 3D
Reference: https://www.youtube.com/watch?v=ecbeIRVqD7g
Deep Learning Model: VoxNet (3D CNN 3D objects)
37
1
5
1
6
2
7
4
8
3
1
2
2
1
3
0
4
kernel: 2x2
stride: 2
Convolution 2D
Input Image(4x4)
5 1
3 2
1*5+1*1
+
5*3+6*2
2*5+4*1
+
7*3+8*2
3*5+2*1
+
1*3+2*2
1*5+0*1
+
3*3+4*2
33 51
24 8
Convoluted Image(2x2)
Deep Learning Model: VoxNet (3D CNN 3D objects)
38
▸ Convolution 3D
Deep Learning Model: VoxNet (3D CNN 3D objects)
39
▸ Convolution 3D
Deep Learning Model: VoxNet (3D CNN 3D objects)
40
▸ Convolution 3D
Deep Learning Model: VoxNet (3D CNN 3D objects)
41
▸ Convolution 3D
Deep Learning Model: VoxNet (3D CNN 3D objects)
42
▸ Convolution 3D
Deep Learning Model: VoxNet (3D CNN 3D objects)
43
▸ Convolution 3D
Deep Learning Model: VoxNet (3D CNN 3D objects)
44
▸ Convolution 3D
Deep Learning Model: VoxNet (3D CNN 3D objects)
45
32 回
▸ Convolution 3D
Deep Learning Model: VoxNet (3D CNN 3D objects)
46
32
filter
:
:
3DCNN
Conv3D(input_shape=(32, 32, 32, 1),
filters=32,
kernel_size=(5, 5, 5),
strides=(2, 2, 2),
data_format=”channels_last”
)
▸ Convolution 3D
Deep Learning Model: VoxNet (Max Pool3D)
47
1
5
1
6
2
7
4
8
3
1
2
2
1
3
0
4
6 8
3 4
Max pool
Pooling size: 2 x 2
Stride: 2
▸ Max Pool 2D
Convolution Feature
Deep Learning Model: VoxNet (Max Pool3D)
48
▸ Max Pool 3D
Convolution
Feature
Pool window
Deep Learning Model: VoxNet (Max Pool3D)
49
Convolution
Feature
▸ Max Pool 3D
Deep Learning Model: VoxNet (Max Pool3D)
50
Convolution
Feature
▸ Max Pool 3D
Deep Learning Model: VoxNet (Max Pool3D)
51
MaxPooling3D(pool_size=(2, 2, 2),
data_format='channels_last',)
▸ Max Pool 3D
Deep Learning Model: VoxNet (Max Pool3D)
52
▸ Fully Connected and Output
3DCNN &
3DMaxPool
:
:
Fully
connected
Dense
128
Dense
number of
class
softmax
Deep Learning Model: VoxNet (Flatten, Dense)
53
▸ Fully Connected and Output
▹ ソフトマックス関数
▹ 出力を確率分布へ
▹ 微分が簡単に
Deep Learning Model: VoxNet (Output)
54
▸ Fully Connected and Output
model.add(Flatten())
model.add(Dense(128, activation='linear',))
model.add(Dense(output_dim=number_class,
activation='linear',))
model.add(Activation("softmax"))
Deep Learning Model: VoxNet
55
model = Sequential()
model.add(Conv3D(input_shape=(32, 32, 32, 1),
filters=32,
kernel_size=(5, 5, 5), strides=(2, 2, 2),
data_format='channels_last',))
model.add(Conv3D(filters=32,
kernel_size=(3, 3, 3), strides=(1, 1, 1),
data_format='channels_last',))
model.add(MaxPooling3D(pool_size=(2, 2, 2),
data_format='channels_last',))
model.add(Flatten())
model.add(Dense(128, activation='linear',))
model.add(Dense(output_dim=number_class, activation='linear',))
model.add(Activation(‘softmax’))
▸ Model
Deep Learning Model: VoxNet
56
▸ Train
model.compile(loss='categorical_crossentropy',
metrics=['accuracy'])
model.fit(x_voxel_data, y_class_label)
戦略を適用
性能を向上するための技術:精度
57
性能を向上するための技術:精度
58
▸ 性能向上へのアプローチ
▹ モデル
▹ 利点
▹ 精度向上の手段が多彩
▹ 欠点
▹ 深いモデルほどリソースを消費
▹ 性能向上が不明確
▹ データ
▹ 利点
▹ 効果がある程度明瞭
▹ 欠点
▹ 手段が限られている
性能を向上するための技術:精度
59
▸ バリデーションデータに対する精度向上の
施作
▹ モデル
▹ RandomDropout
▹ LeakyRelu
▹ データ
▹ Data augmentation(3D data)
▹ Data increase
▹ Class weight をアンバランスなカテゴリのデー
タに使用
性能を向上するための技術:精度
60
▸ データへアプローチ
▹ Data Augmentation は下記の点で優れている
▹ 効果が明確
▹ 計算速度が層を深くするようなモデルと違って
上がらない
性能を向上するための技術:精度
61
▸ Data Augmentation
▹ 回転
▹ シフト
▹ フリップ
▹ その他
性能を向上するための技術:精度
62
▸ Data Augmentation 3D
▹ Augmentation_matrix を変更する
channel_images = [ndi.interpolation.affine_transform(x,
augmentation_matrix,
)for x in x_voxel]
x = np.stack(channel_images, axis=0)
性能を向上するための技術:精度
63
▸ Data Augmentation 3D Rotation
rotation_matrix_y = np.array([[np.cos(theta), 0, np.sin(theta) , 0],
[0 , 1, 0 , 0],
[-np.sin(theta), 0, np.cos(theta), 0],
[0 , 0 , 0 , 1]])
性能を向上するための技術:精度
64
▸ Data increase
学習データにData
augmentation したデータ
を加える
戦略を適用
性能を向上するための技術:速度
65
性能を向上するための技術:速度
66
▸ Deep Learningは多様な速度向上の手法
が存在
▹ GPU(GeForce GTX 1080: Memory 8GB)
▹ CPU 最適化
▹ マルチスレッド
▹ 特徴量データを予め用意すること
性能を向上するための技術:速度
67
▸ CPU 最適化 (TensorFlow build option)
▹ ソースからの独自ビルド
bazel build -c opt --copt=-mavx --copt=-mavx2 --copt=-mfma
戦略を適用
結果
68
Results
69
▸ バリデーションデータの精度
Results
70
Method Explanation
Training
(accuracy)
Validation
(accuracy)
BaseLine BaseLine 90% 79%
Shift_x_Shift_y Data augmentation(x-shift, y-shift) 80% 80%
Shift_x_Shift_y_class
_weight
Data augmentation(x-shift, y-shift) + class
weight 80% 83%
Add_Shift_x_Shift_y_
class_weight
Data augmentation(x-shift, y-shift) + class
weight + ADD(x-shift, y-shift) 85% 85%
まとめ
71
まとめ
72
まとめ
73
Ref: https://www.iconfinder.com/, https://github.com/, https://arxiv.org/, http://www.gitxiv.com/, https://scholar.google.co.jp/
Right problem
laboratory
Rechallenge
Focus
▸ 戦略
正しい問題 チャレンジ フォーカス正しい手法
Conclusion
74
▸ Our case
Data augmentation
Modelのカスタマイズ
3D検索エンジン VoxNet
オンデマンドマニュファ
クチャリングサービス
正しい問題 チャレンジ フォーカス正しい手法
デモ
75
Demo
76
▸ デモのビデオ
We’re hiring
77
“We are hiring!!
機械学習エンジニア
https://www.kabuku.co.jp/jobs/machine-learning-engin
eer
フロントエンドエンジニア
https://www.kabuku.co.jp/jobs/front-end-developer
サーバーサイドエンジニア
https://www.kabuku.co.jp/jobs/backend-developer
79
THANKS!
質問があれば
Twitter @SnowGushiGit
masaya.ohgushi@kabuku.co.jp
References
80
References
▸ MNIST datasets
▹ https://www.tensorflow.org/get_started/mnist/beginners
▸ Flaticon
▹ www.flaticon.com
▸ 3D CNN-Action Recognition Part-1
▹ https://www.youtube.com/watch?v=ecbeIRVqD7g&t=82s
▸ Bengio, Yoshua, et al. "Curriculum learning." Proceedings of the 26th annual
international conference on machine learning. ACM, 2009.
▸ He, Kaiming, et al. "Deep residual learning for image recognition." Proceedings of the
IEEE Conference on Computer Vision and Pattern Recognition. 2016.
▸ Yann, Margot Lisa-Jing, and Yichuan Tang. "Learning Deep Convolutional Neural
Networks for X-Ray Protein Crystallization Image Analysis." AAAI. 2016.
▸ Maturana, Daniel, and Sebastian Scherer. "Voxnet: A 3d convolutional neural network
for real-time object recognition." Intelligent Robots and Systems (IROS), 2015 IEEE/RSJ
International Conference on. IEEE, 2015.
81
References
▸ Deep Learning Book
▹ http://www.deeplearningbook.org/
▸ IconFinder
▹ https://www.iconfinder.com/,
▸ Github
▹ https://github.com/,
▸ Arxiv
▹ https://arxiv.org/
▸ GitXiv
▹ http://www.gitxiv.com/
▸ GoogleSchlor
▹ https://scholar.google.co.jp/
▸
82
Appendix
83
Appendix
▸ Twitterユーザーの探し方
▹ In my case
▹ ファーストステップ
▹ 良いtweetをしている場合は良いtwitterユーザーの確率が
高い
▹ 良いTweet例
▹ 論文
▹ ブログ
▹ セカンドステップ
▹ 良いTwitterユーザーをフォローしているユーザーは良い
Twitterユーザーの確率が高い
84

More Related Content

PDF
EuroPython 2017 外部向け報告会
Ogushi Masaya
 
PDF
自然言語処理に適した ニューラルネットのフレームワーク - - - DyNet - - -
Ogushi Masaya
 
PDF
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII
 
PDF
2015年度GPGPU実践プログラミング 第12回 偏微分方程式の差分計算
智啓 出川
 
PDF
2015年度先端GPGPUシミュレーション工学特論 第8回 偏微分方程式の差分計算 (拡散方程式)
智啓 出川
 
PDF
Overcoming browser cookie churn with clustering in wsdm2012 reading
ybenjo
 
PDF
SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜
SSII
 
PDF
Clustering _ishii_2014__ch10
Kota Mori
 
EuroPython 2017 外部向け報告会
Ogushi Masaya
 
自然言語処理に適した ニューラルネットのフレームワーク - - - DyNet - - -
Ogushi Masaya
 
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII
 
2015年度GPGPU実践プログラミング 第12回 偏微分方程式の差分計算
智啓 出川
 
2015年度先端GPGPUシミュレーション工学特論 第8回 偏微分方程式の差分計算 (拡散方程式)
智啓 出川
 
Overcoming browser cookie churn with clustering in wsdm2012 reading
ybenjo
 
SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜
SSII
 
Clustering _ishii_2014__ch10
Kota Mori
 

What's hot (18)

PPTX
Tf勉強会(4)
tak9029
 
PDF
Kmeans vs kmeanspp_20151124
博三 太田
 
PPTX
農業AIハッカソンマイクロソフト様発表資料
Kohei Mochida
 
PDF
Very helpful python code to find coefficients of the finite difference method
智啓 出川
 
PDF
Chainerの使い方と自然言語処理への応用
Seiya Tokui
 
PDF
最近傍探索と直積量子化(Nearest neighbor search and Product Quantization)
Nguyen Tuan
 
PDF
オープンワールド認識 (第34回全脳アーキテクチャ若手の会 勉強会)
Takuma Yagi
 
PPTX
機械学習 論文輪読会 Hybrid Reward Architecture for Reinforcement Learning
Yuko Ishizaki
 
PDF
PostgreSQL13 新機能紹介
Satoshi Hirata
 
PDF
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
Kenta Oono
 
PDF
Deep learning入門
magoroku Yamamoto
 
PDF
2015年度GPGPU実践プログラミング 第7回 総和計算
智啓 出川
 
PDF
パターン認識 08 09 k-近傍法 lvq
sleipnir002
 
PDF
Introduction to Chainer (LL Ring Recursive)
Kenta Oono
 
PDF
(公開版)FPGAエクストリームコンピューティング2017
Hiroki Nakahara
 
PDF
How to Schedule Machine Learning Workloads Nicely In Kubernetes #CNDT2020 / C...
Preferred Networks
 
PDF
[GTCJ2018] Optimizing Deep Learning with Chainer PFN得居誠也
Preferred Networks
 
PDF
mxnetで頑張る深層学習
Takashi Kitano
 
Tf勉強会(4)
tak9029
 
Kmeans vs kmeanspp_20151124
博三 太田
 
農業AIハッカソンマイクロソフト様発表資料
Kohei Mochida
 
Very helpful python code to find coefficients of the finite difference method
智啓 出川
 
Chainerの使い方と自然言語処理への応用
Seiya Tokui
 
最近傍探索と直積量子化(Nearest neighbor search and Product Quantization)
Nguyen Tuan
 
オープンワールド認識 (第34回全脳アーキテクチャ若手の会 勉強会)
Takuma Yagi
 
機械学習 論文輪読会 Hybrid Reward Architecture for Reinforcement Learning
Yuko Ishizaki
 
PostgreSQL13 新機能紹介
Satoshi Hirata
 
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
Kenta Oono
 
Deep learning入門
magoroku Yamamoto
 
2015年度GPGPU実践プログラミング 第7回 総和計算
智啓 出川
 
パターン認識 08 09 k-近傍法 lvq
sleipnir002
 
Introduction to Chainer (LL Ring Recursive)
Kenta Oono
 
(公開版)FPGAエクストリームコンピューティング2017
Hiroki Nakahara
 
How to Schedule Machine Learning Workloads Nicely In Kubernetes #CNDT2020 / C...
Preferred Networks
 
[GTCJ2018] Optimizing Deep Learning with Chainer PFN得居誠也
Preferred Networks
 
mxnetで頑張る深層学習
Takashi Kitano
 
Ad

Viewers also liked (20)

PPTX
Stock prediction
tetsuo ishigaki
 
PDF
Deep dive into deeplearn.js
Kai Sasaki
 
PPTX
GitLabを16万8千光年ワープさせた話(改)
Wataru NOGUCHI
 
PDF
GitLab Prometheus
Shingo Kitayama
 
PDF
Optimizing Presto Connector on Cloud Storage
Kai Sasaki
 
PDF
Alibaba Cloud Serverless
真吾 吉田
 
PPTX
Mbed OS 5の本を書いてみた
Junichi Katsu
 
PPTX
IoT通信プラットフォーム SORACOM 説明資料
SORACOM, INC
 
PDF
Creating AnswerBot with Keras and TensorFlow (TensorBeat)
Avkash Chauhan
 
PPTX
Deep Learningで似た画像を見つける技術 | OHS勉強会#5
Toshinori Hanya
 
PPTX
CNNの可視化手法Grad-CAMの紹介~CNNさん、あなたはどこを見ているの?~ | OHS勉強会#6
Toshinori Hanya
 
PDF
How to go into production your machine learning models? #CWT2017
Cloudera Japan
 
PDF
ディープラーニングの産業応用とそれを支える技術
Shohei Hido
 
PDF
GOCON Autumn (Story of our own Monitoring Agent in golang)
Huy Do
 
PDF
IkaLog: Data Collector for Splatoon and Machine Learning (Jan 2017 @ Softbank)
Takeshi HASEGAWA
 
PDF
Golang, make and robotics #gocon
Hideyuki TAKEI
 
PDF
Klabの梅雨対策
Hideyuki TAKEI
 
PDF
cocos2d-x で PlugAir を 使えるようにしてみた
Hideyuki TAKEI
 
PDF
IkaLog20170316pynq_dist
Takeshi HASEGAWA
 
PDF
IkaLog: Data Collector for Splatoon and Machine Learning
Takeshi HASEGAWA
 
Stock prediction
tetsuo ishigaki
 
Deep dive into deeplearn.js
Kai Sasaki
 
GitLabを16万8千光年ワープさせた話(改)
Wataru NOGUCHI
 
GitLab Prometheus
Shingo Kitayama
 
Optimizing Presto Connector on Cloud Storage
Kai Sasaki
 
Alibaba Cloud Serverless
真吾 吉田
 
Mbed OS 5の本を書いてみた
Junichi Katsu
 
IoT通信プラットフォーム SORACOM 説明資料
SORACOM, INC
 
Creating AnswerBot with Keras and TensorFlow (TensorBeat)
Avkash Chauhan
 
Deep Learningで似た画像を見つける技術 | OHS勉強会#5
Toshinori Hanya
 
CNNの可視化手法Grad-CAMの紹介~CNNさん、あなたはどこを見ているの?~ | OHS勉強会#6
Toshinori Hanya
 
How to go into production your machine learning models? #CWT2017
Cloudera Japan
 
ディープラーニングの産業応用とそれを支える技術
Shohei Hido
 
GOCON Autumn (Story of our own Monitoring Agent in golang)
Huy Do
 
IkaLog: Data Collector for Splatoon and Machine Learning (Jan 2017 @ Softbank)
Takeshi HASEGAWA
 
Golang, make and robotics #gocon
Hideyuki TAKEI
 
Klabの梅雨対策
Hideyuki TAKEI
 
cocos2d-x で PlugAir を 使えるようにしてみた
Hideyuki TAKEI
 
IkaLog20170316pynq_dist
Takeshi HASEGAWA
 
IkaLog: Data Collector for Splatoon and Machine Learning
Takeshi HASEGAWA
 
Ad

Similar to Kerasを用いた3次元検索エンジン@TFUG (20)

PDF
DEEP LEARNING、トレーニング・インファレンスのGPUによる高速化
RCCSRENKEI
 
PPTX
MIRU2014 tutorial deeplearning
Takayoshi Yamashita
 
PDF
深層学習入門
Danushka Bollegala
 
PPTX
Deep Learning基本理論とTensorFlow
Tadaichiro Nakano
 
PDF
モデルアーキテクチャ観点からのDeep Neural Network高速化
Yusuke Uchida
 
PPTX
CG Image Recognition with Deep Learning
Kodai Takao
 
PPTX
tfug-kagoshima
tak9029
 
PDF
SPADE :Semantic Image Synthesis with Spatially-Adaptive Normalization
Tenki Lee
 
PPTX
CNNチュートリアル
Ikuro Sato
 
PPTX
葉物野菜を見極めたい!by Keras
Yuji Kawakami
 
PPTX
[DL輪読会]EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks
Deep Learning JP
 
PDF
深層学習 - 画像認識のための深層学習 ①
Shohei Miyashita
 
PPTX
Image net classification with Deep Convolutional Neural Networks
Shingo Horiuchi
 
PPTX
「機械学習とは?」から始める Deep learning実践入門
Hideto Masuoka
 
PPTX
機械学習 / Deep Learning 大全 (2) Deep Learning 基礎編
Daiyu Hatakeyama
 
PDF
ハンズオン セッション 1: DIGITS によるディープラーニング入門
NVIDIA Japan
 
PPTX
令和元年度 実践セミナー - Deep Learning 概論 -
Yutaka KATAYAMA
 
PDF
20150930
nlab_utokyo
 
PDF
【CVPR 2020 メタサーベイ】Efficient Training and Inference Methods for Networks
cvpaper. challenge
 
PDF
Taking a Deeper Look at the Inverse Compositional Algorithm
Mai Nishimura
 
DEEP LEARNING、トレーニング・インファレンスのGPUによる高速化
RCCSRENKEI
 
MIRU2014 tutorial deeplearning
Takayoshi Yamashita
 
深層学習入門
Danushka Bollegala
 
Deep Learning基本理論とTensorFlow
Tadaichiro Nakano
 
モデルアーキテクチャ観点からのDeep Neural Network高速化
Yusuke Uchida
 
CG Image Recognition with Deep Learning
Kodai Takao
 
tfug-kagoshima
tak9029
 
SPADE :Semantic Image Synthesis with Spatially-Adaptive Normalization
Tenki Lee
 
CNNチュートリアル
Ikuro Sato
 
葉物野菜を見極めたい!by Keras
Yuji Kawakami
 
[DL輪読会]EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks
Deep Learning JP
 
深層学習 - 画像認識のための深層学習 ①
Shohei Miyashita
 
Image net classification with Deep Convolutional Neural Networks
Shingo Horiuchi
 
「機械学習とは?」から始める Deep learning実践入門
Hideto Masuoka
 
機械学習 / Deep Learning 大全 (2) Deep Learning 基礎編
Daiyu Hatakeyama
 
ハンズオン セッション 1: DIGITS によるディープラーニング入門
NVIDIA Japan
 
令和元年度 実践セミナー - Deep Learning 概論 -
Yutaka KATAYAMA
 
20150930
nlab_utokyo
 
【CVPR 2020 メタサーベイ】Efficient Training and Inference Methods for Networks
cvpaper. challenge
 
Taking a Deeper Look at the Inverse Compositional Algorithm
Mai Nishimura
 

More from Ogushi Masaya (9)

PPTX
Deep reinforcement learning for imbalanced classification
Ogushi Masaya
 
PPTX
Hidden technical debt in machine learning systems(日本語資料)
Ogushi Masaya
 
PDF
Deep and confident prediction for time series at uber
Ogushi Masaya
 
PDF
A dual stage attention-based recurrent neural network for time series prediction
Ogushi Masaya
 
PDF
How to apply deep learning to 3 d objects
Ogushi Masaya
 
PPTX
人工知能の技術で有名なニューラルネットワークのフレームワークである #Chainer を用いた対話botを使った俺の屍を越えてゆけ slide share
Ogushi Masaya
 
PPTX
Step by Stepで学ぶ自然言語処理における深層学習の勘所
Ogushi Masaya
 
PPTX
Wikipedia Entity VectorとWordNetで
対話内容を選定し Chainer を用いたAttentionモデルで 発話内の重要な単語...
Ogushi Masaya
 
PDF
Chainer with natural language processing hands on
Ogushi Masaya
 
Deep reinforcement learning for imbalanced classification
Ogushi Masaya
 
Hidden technical debt in machine learning systems(日本語資料)
Ogushi Masaya
 
Deep and confident prediction for time series at uber
Ogushi Masaya
 
A dual stage attention-based recurrent neural network for time series prediction
Ogushi Masaya
 
How to apply deep learning to 3 d objects
Ogushi Masaya
 
人工知能の技術で有名なニューラルネットワークのフレームワークである #Chainer を用いた対話botを使った俺の屍を越えてゆけ slide share
Ogushi Masaya
 
Step by Stepで学ぶ自然言語処理における深層学習の勘所
Ogushi Masaya
 
Wikipedia Entity VectorとWordNetで
対話内容を選定し Chainer を用いたAttentionモデルで 発話内の重要な単語...
Ogushi Masaya
 
Chainer with natural language processing hands on
Ogushi Masaya
 

Kerasを用いた3次元検索エンジン@TFUG