SlideShare a Scribd company logo
Graph LSTM
GraphLSTMについて解説
1
2枚の論部について解説
• Semantic Segmentation
• Interpretable Structure-Evolving LSTM [55]
• Semantic object Parsing with Graph LSTM [56]
2
Semantic Object Parsing with Graph LSTM
• Graph LSTM
• 主な特徴
• 画像全体にわたるグローバルな推論を行う
• 強い特徴を持つノードから計算を行う
• 隣接ノードのごとに異なる忘却ゲート適用
• Adobe Research
• ECCV2016
3
広範囲な依存関係はオブジェクトとシーンの理解に不可欠
• 信頼度マップをもとにノードの情報を効果的に伝播する
➡ 広範囲な依存関係を学習
適応忘却ゲート
• 従来の忘却ゲートは隣接するすべてのノードから均等に影響を受ける
➡ 有効とは限らない(隣接ノードすべてが重要とは限らない)
• 隣接ノードに対して異なる忘却ゲートを適応的に学習
➡ 意味的な相互作用を伝播させる
隣接ノードの記憶セル
前層の注目ノードの記憶セル
入力
特徴
適応忘却ゲート
隣接ノードの記憶セル
Semantic Object Parsing with Graph LSTM
6
Superpixel + Graph LSTM
グローバルコンテキスト情報を活用
➡ より詳細に予測する
画像→CNN→特徴マップ→1*1Conv
すべてのラベルに対する信頼度マップを作成
LSTM層で信頼度が高いノードから見ていく
ノード情報
CNNにより抽出された特徴マップに対する
スーパーピクセルの該当領域の特徴の平均
Graphの構成
ノード :スーパーピクセルの領域
エッジ :スーパーピクセルの隣接領域
1*1Conv→confidence map
1*1Convで最終的なセグメンテーション結果を予測
Interpretable Structure-Evolving LSTM
• 構造進化型LSTM(structure-evolving LSTM)を提案
• 積み重ねられたLSTMによりノードを確率的に統合(マージ)する
➡ マルチレベルのグラフからセグメンテーションを予測
• 以下3つのデータセットでSOTA(当時)
• PASCAL-Person-Part dataset
• Horse-Cow object parsing dataset
• ATR dataset
• Semantic Object Parsing with Graph LSTMと同じ著者
• CVPR 2017
7
マルチレベルGraph
• マルチレベルのGraphからセグメンテーションを行う
• 低レベルのGraph(SuperPixel)
➡ 細かいオブジェクトの境界情報を持つ
• 高レベルのGraph
➡ 意味的な相互作用をとらえる
• Graph LSTMを使って学習
• マルチレベルのGraphをうまく抽象化・表現するため
8
Interpretable Structure-Evolving LSTM
• Architecture
9
Graphの構成
ノード :スーパーピクセルの領域
エッジ :スーパーピクセルの隣接領域
ノード情報
CNNにより抽出された特徴マップに対する
スーパーピクセルの該当領域の特徴の平均
LSTMによるノードのマージ
ノード情報更新
(それぞれの注目・隣接ノード情報を
集める)
マルチスケールによる予測の要素ごとの和1*1Conv
クラス予測
Interpretable Structure-Evolving LSTM
• 実験①:PASCAL-Person-Part dataset
• Structure-evolving LSTMがSOTA
10
Interpretable Structure-Evolving LSTM
• 実験②:Horse-Cow object parsing dataset
• Structure-evolving LSTMがSOTA
11
Interpretable Structure-Evolving LSTM
• 実験③:ATR dataset
• Structure-evolving LSTMがSOTA
12
Interpretable Structure-Evolving LSTM
13
Interpretable Structure-Evolving LSTM
14
• 上表:層数を変えたときの精度比較
➡ 5層にしたほうが一番良い
• 下表:それぞれの層ごとの精度
➡ それぞれの層からの予測から予測するほうが良い
Graph LSTMの詳細
Semantic Object Parsing with Graph LSTM
LSTMへの入力
16
1層目のLSTMの入力
• CNNの特徴マップ
➡ upsampling
➡ 領域ごとに平均
2層目のLSTMの入力
• 1層目の入力+隠れ状態
Graph LSTMの全体像
17
𝒎𝑖
𝑡
𝒉𝑖
𝑡
𝒉𝑖
𝑡
𝒇𝑖
𝑡
𝛿 𝑡𝑎𝑛ℎ 𝛿 𝛿
𝒈𝑖
𝑓 𝒈𝑖
𝑐 𝒈𝑖
𝑢
𝒈𝑖
𝑜
⊙
⊙ + +
⊙
𝒎𝑖
𝑡+1
𝑡𝑎𝑛ℎ
𝒉𝑖
𝑡+1
memory cell of adj node
𝛿 = 𝑠𝑖𝑔𝑚𝑜𝑖𝑑
Confidence-driven Scheme
18
CNN
1×1Conv
Confidence Map
Confidence-driven Scheme
• 1つのLSTM層で計算するノードの順番を決定
19
CNN
1×1Conv
Confidence Map
領域ごとに値を平均(=信頼度)
信頼度が大きいノードから計算を行う
信頼度が高い
→領域の中の値が大きい
→ノードに強い意味的特徴を持つ
Confidence-driven Scheme
• 信頼度が大きいノードから順に計算を行う
• 計算するノードを確率的に決定
• 既に計算したノードを使用することで、
先に計算したノード(強い意味的特徴を持つ)特徴をより他のノードに伝播
• 畳み込みに近い
通常のLSTMと異なる点
21
memory cell of adj node
𝒎𝑖
𝑡
𝒉𝑖
𝑡
𝒉𝑖
𝑡
𝒇𝑖
𝑡
𝛿 𝑡𝑎𝑛ℎ 𝛿 𝛿
𝒈𝑖
𝑓 𝒈𝑖
𝑐 𝒈𝑖
𝑢
𝒈𝑖
𝑜
⊙
⊙ + +
⊙
𝒎𝑖
𝑡+1
𝑡𝑎𝑛ℎ
𝒉𝑖
𝑡+1
忘却ゲートについて
22
忘却ゲート
𝒎𝑖
𝑡
𝒉𝑖
𝑡
𝒉𝑖
𝑡
𝒇𝑖
𝑡
𝛿 𝑡𝑎𝑛ℎ 𝛿 𝛿
𝒈𝑖
𝑓 𝒈𝑖
𝑐 𝒈𝑖
𝑢
𝒈𝑖
𝑜
⊙
⊙ + +
⊙
𝒎𝑖
𝑡+1
𝑡𝑎𝑛ℎ
𝒉𝑖
𝑡+1
memory cell of adj node
忘却ゲート
• 𝒉𝑖
𝑡
と 𝒇𝑖
𝑡
から前の層からの記憶セルを保持するかを決定
• 𝒉𝑖
𝑡
: 前の層の隠れ状態
• 𝒇𝑖
𝑡
: 入力(グラフのノード特徴)
23
入力・記憶ゲートについて
24
入力・記憶ゲート
𝒎𝑖
𝑡
𝒉𝑖
𝑡
𝒉𝑖
𝑡
𝒇𝑖
𝑡
𝛿 𝑡𝑎𝑛ℎ 𝛿 𝛿
𝒈𝑖
𝑓 𝒈𝑖
𝑐 𝒈𝑖
𝑢
𝒈𝑖
𝑜
⊙
⊙ + +
⊙
𝒎𝑖
𝑡+1
𝑡𝑎𝑛ℎ
𝒉𝑖
𝑡+1
memory cell of adj node
入力・記憶ゲート
• 𝒉𝑖
𝑡
に注目
25
𝒉𝑖
𝑡
について
• 𝒉𝑖
𝑡
について
• 注目ノード 𝑖 に隣接しているノードの隠れ状態を平均
(隣接ノードの特徴を集めたのが 𝒉𝑖
𝑡
)
• 𝒉𝑖
𝑡
を計算しているのに𝒉𝑖
𝑡+1
がある
• 既に計算したノードは計算後の隠れ状態を使用するため
• フラグ 𝑞𝑖
• 既に計算したノード : 𝑞𝑖 = 1
• まだに計算していないノード: 𝑞𝑖 = 0
• 𝒩𝒢 𝑖 : ノード 𝑖 の隣接ノードの集合 26
入力・記憶ゲート
• 入力 : 𝒈𝑖
𝑐
➡ 𝒇𝑖
𝑡
, 𝒉𝑖
𝑡
, 𝒉𝑖
𝑡
を入力
• 入力ゲート :𝒈𝑖
𝑢
➡ 𝒇𝑖
𝑡
, 𝒉𝑖
𝑡
, 𝒉𝑖
𝑡
から入力情報の取捨選択を決定
• 入力グラフの特徴 : 𝒇𝑖
𝑡
• 前の層の隠れ状態 : 𝒉𝑖
𝑡
• ノード 𝑖 の隣接ノードの隠れ状態の平均 : 𝒉𝑖
𝑡
27
memory cell of adj node について
28
𝒎𝑖
𝑡
𝒉𝑖
𝑡
𝒉𝑖
𝑡
𝒇𝑖
𝑡
𝛿 𝑡𝑎𝑛ℎ 𝛿 𝛿
𝒈𝑖
𝑓 𝒈𝑖
𝑐 𝒈𝑖
𝑢
𝒈𝑖
𝑜
⊙
⊙ + +
⊙
𝒎𝑖
𝑡+1
𝑡𝑎𝑛ℎ
𝒉𝑖
𝑡+1
memory cell of adj node
適応忘却ゲート
• 適応忘却ゲート : 𝒈𝑖𝑗
𝑓
• 注目ノードの特徴と、隣接ノードの隠れ状態から計算される
➡ 2つのノードの関係度合いのようなものを算出
• 入力グラフのノード 𝑖 の特徴 : 𝒇𝑖
𝑡
• 前の層のノード 𝑗 の隠れ状態 : 𝒉𝑗
𝑡
29
について
• 注目ノードの特徴と隣接ノードの隠れ状態の関係から
隣接ノードの記憶セルが必要な情報かどうかを決定
• 𝒎𝑖
𝑡+1
は先に計算されたノードのメモリセルを表す
• 𝒈𝑖𝑗
𝑓
: 適応忘却ゲート
• 𝒎𝑖
𝑡
: 𝑡 層目のノード 𝑖 の記憶セル
• 𝑞𝑖 : フラグ(既に計算したノード : 𝑞𝑖 = 1)
• 𝒩𝒢 𝑖 : ノード 𝑖 の隣接ノードの集合
30
memory cell of adj node
記憶セルについて
31
𝒎𝑖
𝑡
𝒉𝑖
𝑡
𝒉𝑖
𝑡
𝒇𝑖
𝑡
𝛿 𝑡𝑎𝑛ℎ 𝛿 𝛿
𝒈𝑖
𝑓 𝒈𝑖
𝑐 𝒈𝑖
𝑢
𝒈𝑖
𝑜
⊙
⊙ + +
⊙
𝒎𝑖
𝑡+1
𝑡𝑎𝑛ℎ
𝒉𝑖
𝑡+1
memory cell of adj node
記憶セルの計算
• 以下の3つの和を記憶セルとして記憶しておく
• 隣接ノードの記憶セル
• 前層の注目ノードの記憶セル
• 入力特徴(注目ノードの特徴、前層の注目ノードの隠れ状態、隣接ノードの隠れ状態)
32
隣接ノードの記憶セル
前層の注目ノードの記憶セル
入力
特徴
出力ゲートについて
33
𝒎𝑖
𝑡
𝒉𝑖
𝑡
𝒉𝑖
𝑡
𝒇𝑖
𝑡
𝛿 𝑡𝑎𝑛ℎ 𝛿 𝛿
𝒈𝑖
𝑓 𝒈𝑖
𝑐 𝒈𝑖
𝑢
𝒈𝑖
𝑜
⊙
⊙ + +
⊙
𝒎𝑖
𝑡+1
𝑡𝑎𝑛ℎ
𝒉𝑖
𝑡+1
memory cell of adj node
出力ゲート
• 出力ゲート : 𝒈𝒊
𝑜
➡ 𝒇𝑖
𝑡
, 𝒉𝑖
𝑡
, 𝒉𝑖
𝑡
次の隠れ層としての情報の取捨選択を決定
• 入力グラフの特徴 : 𝒇𝑖
𝑡
• 前の層の隠れ状態 : 𝒉𝑖
𝑡
• ノード 𝑖 の隣接ノードの隠れ状態の平均 : 𝒉𝑖
𝑡
34
具体的なLSTMの構造
Interpretable Structure-Evolving LSTM
Structure-Evolving LSTMの流れ
• CNN
• 画像の特徴抽出
• 信頼度マップ作成
• CNNの特徴マップ →upsampling→ 1×1Conv → スーパーピクセル領域で平均をとる
• 信頼度が大きいノードから先に計算する
36
Structure-Evolving LSTMの流れ
• Graphを構成
• ノード :スーパーピクセルの領域
• ノード情報 :CNNの特徴マップをupsampling → 領域内の特徴を平均
• エッジ :スーパーピクセルの隣接領域
37
Structure-Evolving LSTMの全体像
38
𝒎𝑖
𝑡
𝒉𝑖
𝑡
𝒉𝑖
𝑡
𝒇𝑖
𝑡
𝛿 𝑡𝑎𝑛ℎ 𝛿 𝛿
𝒈𝑖
𝑓 𝒈𝑖
𝑐 𝒈𝑖
𝑢
𝒈𝑖
𝑜
⊙
⊙ + +
⊙
𝒎𝑖
𝑡+1
𝑡𝑎𝑛ℎ
𝒉𝑖
𝑡+1
memory cell of adj node• 基本的にGraphLSTMと同じ
Graph LSTMと違う部分
39
𝒎𝑖
𝑡
𝒉𝑖
𝑡
𝒉𝑖
𝑡
𝒇𝑖
𝑡
𝛿 𝑡𝑎𝑛ℎ 𝛿 𝛿
𝒈𝑖
𝑓 𝒈𝑖
𝑐 𝒈𝑖
𝑢
𝒈𝑖
𝑜
⊙
⊙ + +
⊙
𝒎𝑖
𝑡+1
𝑡𝑎𝑛ℎ
𝒉𝑖
𝑡+1
memory cell of adj node
適応忘却ゲート
• 適応忘却ゲート : 𝒈𝑖𝑗
𝑓
• 注目ノードの特徴と、隣接ノードの隠れ状態から計算される
➡ 2つのノードの関係のようなものを算出
• 入力グラフのノード 𝑖 の特徴 : 𝒇𝑖
𝑡
• 前の層のノード 𝑗 の隠れ状態 : 𝒉𝑗
𝑡
40
マージ確率
• マージ確率
• 適応忘却ゲート 𝒈𝑖𝑗
𝑓
に重み 𝑾 𝒆 をかけたもの
• 適応忘却ゲートは注目ノードの特徴と、隣接ノードの隠れ状態から計算される
➡ 注目・隣接ノードの関係から2つのノードをマージすべき度合いを計算
41
ノードのマージ
• ノードのマージ方法
• マージ確率が一定以上の場合マージを行う
• マージ後の記憶セル、隠れ状態、入力グラフのノードの特徴
• マージしたノード同士の平均をとる
42
マージ後のグラフの評価
• マージしたグラフは以下の2点を指標に評価
• i)状態遷移確率(マージ確率の積)
• ii)セグメンテーションの予測結果
43
マージしたグラフの評価
• i)状態遷移確率(マージ確率の積)
• 𝑞(𝐺 𝑡+1 → 𝐺 𝑡 )
• マージ後のグラフのすべてのマージ確率の積
• 𝑞(𝐺 𝑡 → 𝐺 𝑡+1 )
• マージ前のグラフのすべてのマージ確率の積
44
マージしたグラフの評価
• ii)セグメンテーションの予測結果
• 𝑃 𝐺 𝑡+1
𝐼; 𝑾𝑼
• 𝐺 𝑡+1
(マージ後)のグラフにおけるセグテーション結果のLoss
• 𝑃 𝐺 𝑡
𝐼; 𝑾𝑼
• 𝐺 𝑡 (マージ前)のグラフにおけるセグテーション結果のLoss
• この指標は学習のみ使用(テスト時は青枠のみ使用)
45
𝑃(𝐺 𝑡
|𝐼; 𝑾𝑼) = −
1
𝑍
exp(−ℒ 𝐹 𝐼, 𝐺(𝑡)
, 𝑾, 𝑼 , 𝑌 )
マージしたグラフの評価
• マージ後のグラフがセグメンテーション結果がよくければならない
➡ マージ後のLoss < マージ前のLoss
➡ マージ後の遷移確率 < マージ前の遷移確率
➡𝛼 𝐺 𝑡
→ 𝐺 𝑡+1
が小さくなるほうが良い
• どんなグラフがいいのか
• マージ後の遷移確率が小さい
➡ 似た特徴を持つノードが少ないGraph
• マージ後の𝐿𝑜𝑠𝑠が小さい
➡ セグメンテーション結果が良くなるGraph
➡𝜶 𝑮 𝒕 → 𝑮 𝒕+𝟏 が小さくなるほうが良い
46
𝛼(𝐺(𝑡)
→ 𝐺(𝑡+1)
) =
マージ後の遷移確率
マージ前の遷移確率
マージ後の𝐿𝑜𝑠𝑠
マージ前の𝐿𝑜𝑠𝑠
マージしたグラフの評価
• 上限を50回とする
• どのようにAcceptするのかは不明
• 評価が終了したら次のLSTM層へ
47
メモ
• 広範囲な依存関係はオブジェクトとシーンの理解に不可欠
• 連続的に並ぶLSTMは広範囲な依存関係を記憶する
• しかし各LSTM内での情報伝播経路は固定されたまま
• 信頼度マップをもとにノードの情報を効果的に伝播
➡広範囲な依存関係を学習
• 従来の忘却ゲートは隣接するすべてのノードから均等に影響を受ける
➡ 有効とは限らない(隣接ノードすべてが重要とは限らない)
• 隣接ノードに対して異なる忘却ゲートを適応的に学習
➡ 意味的な相互作用を伝播させる
メモ
• オブジェクトの境界や外観の類似性などの画像内の視覚パターンと
より自然に一致し、より効率的な情報伝達ルートを提供
• Confidence-driven Scheme
• すべてのノードが更新されるまで
ノードの隠れ状態とメモリ状態を段階的かつ最適に更新
• 適応的忘却ゲート
• 隣接ノードとの異なる程度の意味的相関関係を記憶するように適応的に学習

More Related Content

PDF
敵対的生成ネットワーク(GAN)
cvpaper. challenge
 
PDF
SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜
SSII
 
PPTX
【論文紹介】How Powerful are Graph Neural Networks?
Masanao Ochi
 
PPTX
ベイズ最適化によるハイパラーパラメータ探索
西岡 賢一郎
 
PPTX
[DL輪読会] マルチエージェント強化学習と心の理論
Deep Learning JP
 
PPTX
強化学習 DQNからPPOまで
harmonylab
 
PPTX
SuperGlue; Learning Feature Matching with Graph Neural Networks (CVPR'20)
Yusuke Uchida
 
PDF
Iclr2016 vaeまとめ
Deep Learning JP
 
敵対的生成ネットワーク(GAN)
cvpaper. challenge
 
SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜
SSII
 
【論文紹介】How Powerful are Graph Neural Networks?
Masanao Ochi
 
ベイズ最適化によるハイパラーパラメータ探索
西岡 賢一郎
 
[DL輪読会] マルチエージェント強化学習と心の理論
Deep Learning JP
 
強化学習 DQNからPPOまで
harmonylab
 
SuperGlue; Learning Feature Matching with Graph Neural Networks (CVPR'20)
Yusuke Uchida
 
Iclr2016 vaeまとめ
Deep Learning JP
 

What's hot (20)

PPTX
Survey on Test Time Adaptation.pptx
Kaito Sugiyama
 
PDF
R-CNNの原理とここ数年の流れ
Kazuki Motohashi
 
PPTX
畳み込みニューラルネットワークの研究動向
Yusuke Uchida
 
PPTX
帰納バイアスが成立する条件
Shinobu KINJO
 
PDF
Optimizer入門&最新動向
Motokawa Tetsuya
 
PPTX
強化学習エージェントの内発的動機付けによる探索とその応用(第4回 統計・機械学習若手シンポジウム 招待公演)
Shota Imai
 
PDF
continual learning survey
ぱんいち すみもと
 
PDF
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
Deep Learning JP
 
PDF
オープンワールド認識 (第34回全脳アーキテクチャ若手の会 勉強会)
Takuma Yagi
 
PPTX
【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたい
Takuji Tahara
 
PPTX
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII
 
PDF
SSD: Single Shot MultiBox Detector (ECCV2016)
Takanori Ogata
 
PDF
NumPy闇入門
Ryosuke Okuta
 
PPTX
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
Deep Learning JP
 
PDF
LBFGSの実装
Kotaro Tanahashi
 
PPTX
Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recog...
yukihiro domae
 
PDF
[DL輪読会]The Neural Process Family−Neural Processes関連の実装を読んで動かしてみる−
Deep Learning JP
 
PDF
Introduction to A3C model
WEBFARMER. ltd.
 
PDF
機械学習による統計的実験計画(ベイズ最適化を中心に)
Kota Matsui
 
PPTX
[研究室論文紹介用スライド] Adversarial Contrastive Estimation
Makoto Takenaka
 
Survey on Test Time Adaptation.pptx
Kaito Sugiyama
 
R-CNNの原理とここ数年の流れ
Kazuki Motohashi
 
畳み込みニューラルネットワークの研究動向
Yusuke Uchida
 
帰納バイアスが成立する条件
Shinobu KINJO
 
Optimizer入門&最新動向
Motokawa Tetsuya
 
強化学習エージェントの内発的動機付けによる探索とその応用(第4回 統計・機械学習若手シンポジウム 招待公演)
Shota Imai
 
continual learning survey
ぱんいち すみもと
 
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
Deep Learning JP
 
オープンワールド認識 (第34回全脳アーキテクチャ若手の会 勉強会)
Takuma Yagi
 
【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたい
Takuji Tahara
 
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII
 
SSD: Single Shot MultiBox Detector (ECCV2016)
Takanori Ogata
 
NumPy闇入門
Ryosuke Okuta
 
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
Deep Learning JP
 
LBFGSの実装
Kotaro Tanahashi
 
Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recog...
yukihiro domae
 
[DL輪読会]The Neural Process Family−Neural Processes関連の実装を読んで動かしてみる−
Deep Learning JP
 
Introduction to A3C model
WEBFARMER. ltd.
 
機械学習による統計的実験計画(ベイズ最適化を中心に)
Kota Matsui
 
[研究室論文紹介用スライド] Adversarial Contrastive Estimation
Makoto Takenaka
 
Ad

Similar to Graph LSTM解説 (20)

PDF
0から理解するニューラルネットアーキテクチャサーチ(NAS)
MasanoriSuganuma
 
PDF
Efficient Neural Architecture Searchvia Parameter Sharing
Taichi Itoh
 
PDF
LSTM (Long short-term memory) 概要
Kenji Urai
 
PDF
Tutorial-DeepLearning-PCSJ-IMPS2016
Takayoshi Yamashita
 
PPTX
SakataMoriLab GNN勉強会第一回資料
ttt_miura
 
PDF
ICCV 2019 論文紹介 (26 papers)
Hideki Okada
 
PDF
Learning to forget continual prediction with lstm
Fujimoto Keisuke
 
PDF
深層学習 - 画像認識のための深層学習 ②
Shohei Miyashita
 
PDF
Semantic segmentation
Takuya Minagawa
 
PDF
拡がるディープラーニングの活用
NVIDIA Japan
 
PDF
DeepLearningDay2016Summer
Takayoshi Yamashita
 
PDF
文献紹介:Video Transformer Network
Toru Tamaki
 
PPTX
[DL輪読会]Graph R-CNN for Scene Graph Generation
Deep Learning JP
 
PDF
IEEE ITSS Nagoya Chapter
Takayoshi Yamashita
 
PDF
Convolutional Neural Networks のトレンド @WBAFLカジュアルトーク#2
Daiki Shimada
 
PDF
Graph Attention Network
Takahiro Kubo
 
PPTX
Mind’s Eye: A Recurrent Visual Representation for Image Caption Generation
tomoaki0705
 
PDF
Learning Spatial Common Sense with Geometry-Aware Recurrent Networks
Kento Doi
 
PDF
Deep learning を用いた画像から説明文の自動生成に関する研究の紹介
株式会社メタップスホールディングス
 
PDF
LSTM
Cotty
 
0から理解するニューラルネットアーキテクチャサーチ(NAS)
MasanoriSuganuma
 
Efficient Neural Architecture Searchvia Parameter Sharing
Taichi Itoh
 
LSTM (Long short-term memory) 概要
Kenji Urai
 
Tutorial-DeepLearning-PCSJ-IMPS2016
Takayoshi Yamashita
 
SakataMoriLab GNN勉強会第一回資料
ttt_miura
 
ICCV 2019 論文紹介 (26 papers)
Hideki Okada
 
Learning to forget continual prediction with lstm
Fujimoto Keisuke
 
深層学習 - 画像認識のための深層学習 ②
Shohei Miyashita
 
Semantic segmentation
Takuya Minagawa
 
拡がるディープラーニングの活用
NVIDIA Japan
 
DeepLearningDay2016Summer
Takayoshi Yamashita
 
文献紹介:Video Transformer Network
Toru Tamaki
 
[DL輪読会]Graph R-CNN for Scene Graph Generation
Deep Learning JP
 
IEEE ITSS Nagoya Chapter
Takayoshi Yamashita
 
Convolutional Neural Networks のトレンド @WBAFLカジュアルトーク#2
Daiki Shimada
 
Graph Attention Network
Takahiro Kubo
 
Mind’s Eye: A Recurrent Visual Representation for Image Caption Generation
tomoaki0705
 
Learning Spatial Common Sense with Geometry-Aware Recurrent Networks
Kento Doi
 
Deep learning を用いた画像から説明文の自動生成に関する研究の紹介
株式会社メタップスホールディングス
 
LSTM
Cotty
 
Ad

More from yukihiro domae (8)

PPTX
FeaStNet: Feature-Steered Graph Convolutions for 3D Shape Analysis
yukihiro domae
 
PPTX
Graph U-Net
yukihiro domae
 
PPTX
Graph Refinement based Tree Extraction using Mean-Field Networks and Graph Ne...
yukihiro domae
 
PPTX
Learning Depthwise Separable Graph Convolution from Data Manifold
yukihiro domae
 
PPTX
Texture-Aware Superpixel Segmentation
yukihiro domae
 
PPTX
Superpixel Sampling Networks
yukihiro domae
 
PPTX
Graph convolution (スペクトルアプローチ)
yukihiro domae
 
PDF
Dynamic Routing Between Capsules
yukihiro domae
 
FeaStNet: Feature-Steered Graph Convolutions for 3D Shape Analysis
yukihiro domae
 
Graph U-Net
yukihiro domae
 
Graph Refinement based Tree Extraction using Mean-Field Networks and Graph Ne...
yukihiro domae
 
Learning Depthwise Separable Graph Convolution from Data Manifold
yukihiro domae
 
Texture-Aware Superpixel Segmentation
yukihiro domae
 
Superpixel Sampling Networks
yukihiro domae
 
Graph convolution (スペクトルアプローチ)
yukihiro domae
 
Dynamic Routing Between Capsules
yukihiro domae
 

Graph LSTM解説

Editor's Notes

  • #3: どちらも位置関係を考慮したようなことをやっていて近い感じがした
  • #5: GraphLSTMでは1つの層で すべてのノードを探索して隣接ノードとの関係を学習する そしてその時に更新後のノードの情報を使用する まずノードを見ていく順番が特徴マップの値が大きいノードから見ていく この論文では特徴マップの値が大きいものは重要な意味的部分の特徴と考えている よって先にその重要な特徴を計算していくことで 更新後のノードを使用することでその強い特徴との関係を少ない層で学習するということ ーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーー 注目ノート隣接ノードを使用して計算する すべてのノードを探索する その時に、隣接ノードがすでに計算さているものは更新されたノードを使用する よってどのノードをはじめに見るかというのが重要になってくる 信頼度マップというのを作成し、信頼度が高いノードが意味的に強い情報を持つ考えのもと先に計算を行う 計算された情報をすぐに使用することで少ない層で広範囲のノードの関係を学習することができる 信頼度マップはCNNから得た特徴➡アップサンプリング➡スーパーピクセルの領域内で平均したもの ------------------------------------------------ ーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーー 更新されたシーケンス内のより早いノードはおそらくより強い意味的証拠(例えばより高い信頼性を有する任意の重要な意味的部分に属する)を有し、それらの視覚的特徴はメッセージパッシングに対してより信頼性が高いから
  • #17: LSTMの入力はCNNから抽出した特徴マップをアップサンプリングしたものを使用 1層目はスーパーピクセルの領域で平均をとったものをノード情報としたグラフ 2層目は1層目の入力+隠れ状態
  • #18: 全体像はこのようになってます
  • #19: オレンジの部分をこの図で説明
  • #20: CNNから抽出した特徴マップをアップサンプリグ 1*1Convして 領域ごとに平均 そのノードごとの値が信頼度になる その値が大きいということは特徴があり 強い意味的特徴を持つとかんがえらる
  • #22: 通常のLSTMと違う部分は赤枠の部分
  • #23: まず忘却ゲートから
  • #24: 忘却ゲートは通常のLSTMと同じ 前の層の隠れ状態と入力としたGraphによって計算される
  • #25: 次は入力記憶ゲート
  • #26: 計算は上式のようになっている ここで 𝒉 𝑖 𝑡 をまず説明する
  • #28: 入力グラフの特徴 前の層の隠れ状態 ノードiの隣接ノードの隠れ状態の平均によって2つのゲートが計算される
  • #29: 次はこの部分を説明する
  • #30: その前に適応忘却ゲートについて説明する 入力グラフの特徴と隣接ノードの前の層の隠れ状態からノードの関係度合いのようなものを算出する
  • #31: ここでは注目のノードiの 隣接ノードjの記憶セルを忘却ノードによって取捨選択をしながら注目ノードのセルに加える 適応忘却ゲートが注目・隣接ノードの関係のようなものを計算したのはこのため
  • #32: 記憶セルの計算をまとめる
  • #33: 記憶セルは3つの要素の和を記憶 隣接ノードの記憶セル 注目ノードの記憶セル 入力特徴
  • #34: 隠れ状態について説明する
  • #35: 出力ゲートについて説明 入力グラフの特徴 前の層の隠れ状態 隣接ノードの隠れ状態の平均
  • #37: まず画像に対してCNNにより特徴抽出を行う 信頼度マップ作成する ここは前と同じ
  • #38: Graphを構成
  • #40: 前と違う部分はここ
  • #41: 適応忘却ゲートは 注目ノードの特徴と 隣接ノードの隠れ状態から 2つのノードの関係を計算した
  • #42: そのノードの関係に対して重みをかけてマージ確率というものを追加で計算する 注目・隣接ノードの関係から2つのノードをマージすべき度合いを計算
  • #43: ノードをマージする方法を説明する
  • #44: マージ後のグラフは前より良いグラフである必要がある よって評価しなければならない 評価方法は以下2点
  • #47: [構造進化型LSTMを訓練するための最終的な損失] ・最終的なタスク関連の予測的な損失 ・すべての層についての予測されたマージ確率に関する損失