SlideShare a Scribd company logo
3
Most read
6
Most read
17
Most read
Copyright © 2018 TIS Inc. All rights reserved.
Graph Attention Network
戦略技術センター
久保隆宏
NodeもEdegeもSpeedも
Copyright © 2018 TIS Inc. All rights reserved. 2
 Summary
 関連研究における位置づけ
 Architecture
 実験結果
 まとめ・所感
 参考文献
目次
Copyright © 2018 TIS Inc. All rights reserved. 3
Graph Attention Networkは、Graph Convolutionにおける「情報量と計
算速度のトレードオフ」のバランスをうまくとった研究。
 Graphにおいては、NodeだけでなくEdgeの情報も重要。ただ、Edge
の潜在表現を作っていると計算速度が遅くなる(Modeling Relational
Data with Graph Convolutional Networks)。
 そこでEdgeの情報をAttentionの重みとして表現した。これにより、そ
こそこEdgeの情報をとることができ、計算速度もそこそこを維持でき
た。
Summary
論文の引用ネットワークに適
用した図。Node(論文)の情報
だけでなく、Nodeを結ぶエッ
ジ情報(=太さ)を取れている
(Figure 2より)
Copyright © 2018 TIS Inc. All rights reserved. 4
関連研究における位置づけ (1/7)
(著者はセルビアの方)
Copyright © 2018 TIS Inc. All rights reserved. 5
関連研究における位置づけ (2/7)
The graph neural network model
下記特徴をNN(f)に入力しノードの状態
を計算する。状態・特徴から出力を得る。
 𝑙 𝑛: ノードの特徴
 𝑙 𝑐𝑜[𝑛]: エッジの特徴
 𝑥 𝑛𝑒[𝑛]: 周辺ノードの状態
 𝑙 𝑛𝑒[𝑛]: 周辺ノードの特徴
入力=>状態の更新を繰り返すが、これ
はちょうどRNNと似た形であり(左図) 、
BPTTで更新できる。
ノード検索において、ノード特徴だけ使
うより精度が高いことを確認。
※特徴とは、化学物質ならノード=炭素/
酸素、エッジ=結合/二重結合など
Copyright © 2018 TIS Inc. All rights reserved. 6
関連研究における位置づけ (3/7)
Spectral Networks and Locally Connected Networks
on Graphs
GraphにCNNを適用する研究。具体的には、CNNの「マルチス
ケール」な情報抽出をグラフ上でどう行うか議論している。
 ノード=>クラスタリング=>クラスタ特徴=>クラスタ特
徴のクラスタリング=>・・・と繰り返していけばマルチス
ケールっぽくなる(左下図参照)
 クラスタリングとしてSpectral clusteringを用いる。これ
はグラフの隣接行列を固有値分解する手法。
 フーリエ級数と固有値ベクトル分解は等価であるため(参考
文献参照)、Graphを信号に見立てたときのFourie展開で計
算が可能。
 固有値で役立つのは上位数個(d)のため、常に上位dを取る
とすると定型サイズのフィルタを段々と適用するCNNのよ
うな形になる。
固有ベクトルの計算が必要で、きっつい
Copyright © 2018 TIS Inc. All rights reserved. 7
関連研究における位置づけ (4/7)
Convolutional Neural Networks on Graphs with
Fast Localized Spectral Filtering
SpectralなGraph Convolutionをチェビシェフ展開
(Chebyshev expansion)で近似することで、固有値計算
の必要をなくした。
Copyright © 2018 TIS Inc. All rights reserved. 8
関連研究における位置づけ (5/7)
Semi-Supervised Classification with Graph
Convolutional Networks
さらに、フィルタの対象を最近傍(1-step)の周辺ノードに
限定。
ここまで来たら普通に周辺ノードに重みをかけるで良くないか
Copyright © 2018 TIS Inc. All rights reserved. 9
関連研究における位置づけ (6/7)
最近よく見る形(すごく普通)
Copyright © 2018 TIS Inc. All rights reserved. 10
関連研究における位置づけ (7/7)
Graph Attention Network
周辺ノードからの伝搬時にAttentionを加味(シンプ
ル!)。
Copyright © 2018 TIS Inc. All rights reserved. 11
 Attention(𝛼)は、自身(hi)と周辺(hj)にそれぞれ重みを掛け結合したベ
クトルを基に算出される。
 フィルタがk枚ある場合は、k個の重みそれぞれについてAttentionと
Forwardの計算を行い平均をとる。
Architecture
Structured deep models: Deep learning on graphs and beyondより
Copyright © 2018 TIS Inc. All rights reserved. 12
はじめに: TransductiveとInductiveについて
Transductiveは「既知だが、ラベルが未知のノード」についてラベルを予
測するタスク。「既知」というのは、学習データ中にノードがあるという
こと。
Inductiveは、未知のノードに対してラベルを予測するタスク。ただ、
ノードは既にグラフ内に追加されたとして、周辺ノードを得ることができ
る。
TransductiveよりもInductiveの方が、汎化性能が求められる
(Transductiveは、ある意味与えられたグラフに対するOverfitが可能であ
るため)。
実験結果 (1/2)
Copyright © 2018 TIS Inc. All rights reserved. 13
実験結果 (2/2)
特にInductiveで大きな効果!
Copyright © 2018 TIS Inc. All rights reserved. 14
とてもストレートな手法で良好な結果を出している。
Edgeの情報もある程度取れているので、Edgeに関するタスク
(LinkPredictionなど)も試してみてほしかった感は少しある(Weightだけ
では厳しいかもしれないが)。
Nodeの情報をより高速に取る手法、Edgeの情報をよりリッチに取る手法
はそれぞれ別途あるので、最初に試して必要となればどちらかにスイッチ
するという形にも使えそう。
まとめ・所感
Copyright © 2018 TIS Inc. All rights reserved. 15
 Petar Veličković, Guillem Cucurull, Arantxa Casanova, Adriana Romero and Pietro
Liò, Yoshua Bengio. Graph Attention Networks. In ICLR, 2018.
 Franco Scarselli, Marco Gori, Ah Chung Tsoi, Markus Hagenbuchner and Gabriele
Monfardini. The graph neural network model. Neural Networks, IEEE
Transactions on, 20(1):61–80, 2009.
 Joan Bruna, Wojciech Zaremba, Arthur Szlam and Yann LeCun. Spectral
Networks and Locally Connected Networks on Graphs. In ICLR, 2014.
 Spectral由来の手法の起源となる論文。
 Mikael Henaff, Joan Bruna and Yann LeCun. Deep Convolutional Networks on
Graph-Structured Data. arXiv preprint arXiv:1506.05163, 2015.
 Michaël Defferrard, Xavier Bresson and Pierre Vandergheynst. Convolutional
Neural Networks on Graphs with Fast Localized Spectral Filtering. In NIPS, 2016.
 Thomas N. Kipf and Max Welling. Semi-Supervised Classification with Graph
Convolutional Networks. In ICLR, 2017.
参考文献: Papers
Copyright © 2018 TIS Inc. All rights reserved. 16
 Thomas Kipf. Structured deep models: Deep learning on graphs and beyond.
2018.
 Graph Convolutionを行う時にまず参照すべき解説スライド
 horiem. フーリエ級数展開をベクトルで直観的に理解する. Phys and Tips, 2016.
 固有値分解とフーリエ展開がどう関係するの?というところがなんとなくわかる。
 7931. フーリエ級数の3つの解釈/『数学セミナー 2018年3月号』読書メモ その3.
7931のあたまんなか, 2018.
 フーリエ級数と固有ベクトル分解の関係がより直接的に書かれている。
参考文献: Articles
THANK YOU

More Related Content

PDF
Domain Adaptation 発展と動向まとめ(サーベイ資料)
Yamato OKAMOTO
 
PDF
12. Diffusion Model の数学的基礎.pdf
幸太朗 岩澤
 
PPTX
【DL輪読会】時系列予測 Transfomers の精度向上手法
Deep Learning JP
 
PDF
Transformer メタサーベイ
cvpaper. challenge
 
PDF
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII
 
PDF
ドメイン適応の原理と応用
Yoshitaka Ushiku
 
PDF
[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...
Deep Learning JP
 
PPTX
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
Deep Learning JP
 
Domain Adaptation 発展と動向まとめ(サーベイ資料)
Yamato OKAMOTO
 
12. Diffusion Model の数学的基礎.pdf
幸太朗 岩澤
 
【DL輪読会】時系列予測 Transfomers の精度向上手法
Deep Learning JP
 
Transformer メタサーベイ
cvpaper. challenge
 
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII
 
ドメイン適応の原理と応用
Yoshitaka Ushiku
 
[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...
Deep Learning JP
 
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
Deep Learning JP
 

What's hot (20)

PPTX
【DL輪読会】"A Generalist Agent"
Deep Learning JP
 
PPTX
【論文紹介】How Powerful are Graph Neural Networks?
Masanao Ochi
 
PPTX
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Yusuke Uchida
 
PDF
グラフニューラルネットワークとグラフ組合せ問題
joisino
 
PPTX
[DL輪読会]Neural Ordinary Differential Equations
Deep Learning JP
 
PPTX
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
Deep Learning JP
 
PPTX
【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたい
Takuji Tahara
 
PDF
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)
MLSE
 
PDF
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII
 
PPTX
Curriculum Learning (関東CV勉強会)
Yoshitaka Ushiku
 
PPTX
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
Deep Learning JP
 
PDF
【論文読み会】Self-Attention Generative Adversarial Networks
ARISE analytics
 
PDF
動画認識サーベイv1(メタサーベイ )
cvpaper. challenge
 
PDF
多様な強化学習の概念と課題認識
佑 甲野
 
PPTX
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...
Deep Learning JP
 
PDF
【メタサーベイ】数式ドリブン教師あり学習
cvpaper. challenge
 
PPTX
画像認識と深層学習
Yusuke Uchida
 
PDF
三次元点群を取り扱うニューラルネットワークのサーベイ
Naoya Chiba
 
PPTX
Transformerを雰囲気で理解する
AtsukiYamaguchi1
 
PPTX
【DL輪読会】A Time Series is Worth 64 Words: Long-term Forecasting with Transformers
Deep Learning JP
 
【DL輪読会】"A Generalist Agent"
Deep Learning JP
 
【論文紹介】How Powerful are Graph Neural Networks?
Masanao Ochi
 
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Yusuke Uchida
 
グラフニューラルネットワークとグラフ組合せ問題
joisino
 
[DL輪読会]Neural Ordinary Differential Equations
Deep Learning JP
 
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
Deep Learning JP
 
【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたい
Takuji Tahara
 
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)
MLSE
 
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII
 
Curriculum Learning (関東CV勉強会)
Yoshitaka Ushiku
 
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
Deep Learning JP
 
【論文読み会】Self-Attention Generative Adversarial Networks
ARISE analytics
 
動画認識サーベイv1(メタサーベイ )
cvpaper. challenge
 
多様な強化学習の概念と課題認識
佑 甲野
 
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...
Deep Learning JP
 
【メタサーベイ】数式ドリブン教師あり学習
cvpaper. challenge
 
画像認識と深層学習
Yusuke Uchida
 
三次元点群を取り扱うニューラルネットワークのサーベイ
Naoya Chiba
 
Transformerを雰囲気で理解する
AtsukiYamaguchi1
 
【DL輪読会】A Time Series is Worth 64 Words: Long-term Forecasting with Transformers
Deep Learning JP
 
Ad

Similar to Graph Attention Network (20)

PPTX
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII
 
PDF
グラフデータ分析 入門編
順也 山口
 
PPTX
SakataMoriLab GNN勉強会第一回資料
ttt_miura
 
PPTX
Graph conv
TakuyaKobayashi12
 
PPTX
[DL輪読会]Graph R-CNN for Scene Graph Generation
Deep Learning JP
 
PDF
[DL輪読会]Relational inductive biases, deep learning, and graph networks
Deep Learning JP
 
PDF
[DL輪読会]Learning to Simulate Complex Physics with Graph Networks
Deep Learning JP
 
PDF
YOU は何して VLDB2020 Tokyo へ? (グラフ編)
Junya Arai
 
PDF
Neural networks for Graph Data NeurIPS2018読み会@PFN
emakryo
 
PPTX
Graph Neural Networks
tm1966
 
PDF
Graph nuralnetwork@2021
embedded samurai
 
PDF
Learning Convolutional Neural Networks for Graphs
Takuya Akiba
 
PDF
Learning Convolutional Neural Networks for Graphs
Takuya Akiba
 
PPTX
KB + Text => Great KB な論文を多読してみた
Koji Matsuda
 
PDF
最近のDeep Learning (NLP) 界隈におけるAttention事情
Yuta Kikuchi
 
PDF
論文紹介 Star-Transformer (NAACL 2019)
広樹 本間
 
PDF
NLP若手の回 ACL2012参加報告
Hiroyuki TOKUNAGA
 
PDF
【論文紹介】 Attention Based Spatial-Temporal Graph Convolutional Networks for Traf...
ddnpaa
 
PPTX
[DL輪読会]Reasoning-RCNN: Unifying Adaptive Global Reasoning into Large-scale Ob...
Deep Learning JP
 
PPTX
「解説資料」Reasoning-RCNN: Unifying Adaptive Global Reasoning into Large-scale Obj...
Takumi Ohkuma
 
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII
 
グラフデータ分析 入門編
順也 山口
 
SakataMoriLab GNN勉強会第一回資料
ttt_miura
 
Graph conv
TakuyaKobayashi12
 
[DL輪読会]Graph R-CNN for Scene Graph Generation
Deep Learning JP
 
[DL輪読会]Relational inductive biases, deep learning, and graph networks
Deep Learning JP
 
[DL輪読会]Learning to Simulate Complex Physics with Graph Networks
Deep Learning JP
 
YOU は何して VLDB2020 Tokyo へ? (グラフ編)
Junya Arai
 
Neural networks for Graph Data NeurIPS2018読み会@PFN
emakryo
 
Graph Neural Networks
tm1966
 
Graph nuralnetwork@2021
embedded samurai
 
Learning Convolutional Neural Networks for Graphs
Takuya Akiba
 
Learning Convolutional Neural Networks for Graphs
Takuya Akiba
 
KB + Text => Great KB な論文を多読してみた
Koji Matsuda
 
最近のDeep Learning (NLP) 界隈におけるAttention事情
Yuta Kikuchi
 
論文紹介 Star-Transformer (NAACL 2019)
広樹 本間
 
NLP若手の回 ACL2012参加報告
Hiroyuki TOKUNAGA
 
【論文紹介】 Attention Based Spatial-Temporal Graph Convolutional Networks for Traf...
ddnpaa
 
[DL輪読会]Reasoning-RCNN: Unifying Adaptive Global Reasoning into Large-scale Ob...
Deep Learning JP
 
「解説資料」Reasoning-RCNN: Unifying Adaptive Global Reasoning into Large-scale Obj...
Takumi Ohkuma
 
Ad

More from Takahiro Kubo (20)

PDF
自然言語処理による企業の気候変動対策分析
Takahiro Kubo
 
PDF
国際会計基準(IFRS)適用企業の財務評価方法
Takahiro Kubo
 
PDF
自然言語処理で新型コロナウィルスに立ち向かう
Takahiro Kubo
 
PDF
財務・非財務一体型の企業分析に向けて
Takahiro Kubo
 
PDF
自然言語処理で読み解く金融文書
Takahiro Kubo
 
PDF
arXivTimes Review: 2019年前半で印象に残った論文を振り返る
Takahiro Kubo
 
PPTX
ESG評価を支える自然言語処理基盤の構築
Takahiro Kubo
 
PDF
Expressing Visual Relationships via Language: 自然言語による画像編集を目指して
Takahiro Kubo
 
PDF
Reinforcement Learning Inside Business
Takahiro Kubo
 
PDF
あるべきESG投資の評価に向けた、自然言語処理の活用
Takahiro Kubo
 
PDF
nlpaper.challenge NLP/CV交流勉強会 画像認識 7章
Takahiro Kubo
 
PDF
Curiosity may drives your output routine.
Takahiro Kubo
 
PDF
モデルではなく、データセットを蒸留する
Takahiro Kubo
 
PDF
EMNLP2018 Overview
Takahiro Kubo
 
PPTX
2018年12月4日までに『呪術廻戦』を読む理由
Takahiro Kubo
 
PDF
ACL2018の歩き方
Takahiro Kubo
 
PDF
機械学習で泣かないためのコード設計 2018
Takahiro Kubo
 
PDF
TISにおける、研究開発の方針とメソッド 2018
Takahiro Kubo
 
PDF
感情の出どころを探る、一歩進んだ感情解析
Takahiro Kubo
 
PDF
機械学習の力を引き出すための依存性管理
Takahiro Kubo
 
自然言語処理による企業の気候変動対策分析
Takahiro Kubo
 
国際会計基準(IFRS)適用企業の財務評価方法
Takahiro Kubo
 
自然言語処理で新型コロナウィルスに立ち向かう
Takahiro Kubo
 
財務・非財務一体型の企業分析に向けて
Takahiro Kubo
 
自然言語処理で読み解く金融文書
Takahiro Kubo
 
arXivTimes Review: 2019年前半で印象に残った論文を振り返る
Takahiro Kubo
 
ESG評価を支える自然言語処理基盤の構築
Takahiro Kubo
 
Expressing Visual Relationships via Language: 自然言語による画像編集を目指して
Takahiro Kubo
 
Reinforcement Learning Inside Business
Takahiro Kubo
 
あるべきESG投資の評価に向けた、自然言語処理の活用
Takahiro Kubo
 
nlpaper.challenge NLP/CV交流勉強会 画像認識 7章
Takahiro Kubo
 
Curiosity may drives your output routine.
Takahiro Kubo
 
モデルではなく、データセットを蒸留する
Takahiro Kubo
 
EMNLP2018 Overview
Takahiro Kubo
 
2018年12月4日までに『呪術廻戦』を読む理由
Takahiro Kubo
 
ACL2018の歩き方
Takahiro Kubo
 
機械学習で泣かないためのコード設計 2018
Takahiro Kubo
 
TISにおける、研究開発の方針とメソッド 2018
Takahiro Kubo
 
感情の出どころを探る、一歩進んだ感情解析
Takahiro Kubo
 
機械学習の力を引き出すための依存性管理
Takahiro Kubo
 

Recently uploaded (10)

PPTX
【Qlik 医療データ活用勉強会】第50回 日本医療マネジメント学会参加報告、DPCデータの活用等
QlikPresalesJapan
 
PDF
RV車市場、CAGR2.60%で成長し、2031年には37640百万米ドル規模に
yhresearch
 
PDF
ダイヤモンドスラリー市場規模の成長見通し:2031年には193百万米ドルに到達へ
yhresearch
 
PDF
セットトップボックス市場:世界の産業現状、競合分析、シェア、規模、動向2025-2031年の予測
snow326214
 
PDF
埋め込み型ドラッグデリバリーデバイスの成長予測:2031年には751百万米ドルに到達へ
2418867459
 
PDF
工業用ミストシステム調査レポート:市場規模、シェア、産業分析データ、最新動向2025-2031 YH Research
2418867459
 
PDF
世界mPOSデバイス市場のサプライチェーン解析:上流、下流、収益モデル分析2025-2031
yhresearch
 
PPTX
20250729_TechTalk_QlikTalendCloud_データ品質とデータガバナンス
QlikPresalesJapan
 
PPTX
PRESENTASI IZIN OPERASIONAL SMK ISLAM KARYA MANDIRI
BAHRULALAM27
 
PPTX
BEIS ORIENTATION FOR S.Y2024 - 2025.pptx
AsmiraCo2
 
【Qlik 医療データ活用勉強会】第50回 日本医療マネジメント学会参加報告、DPCデータの活用等
QlikPresalesJapan
 
RV車市場、CAGR2.60%で成長し、2031年には37640百万米ドル規模に
yhresearch
 
ダイヤモンドスラリー市場規模の成長見通し:2031年には193百万米ドルに到達へ
yhresearch
 
セットトップボックス市場:世界の産業現状、競合分析、シェア、規模、動向2025-2031年の予測
snow326214
 
埋め込み型ドラッグデリバリーデバイスの成長予測:2031年には751百万米ドルに到達へ
2418867459
 
工業用ミストシステム調査レポート:市場規模、シェア、産業分析データ、最新動向2025-2031 YH Research
2418867459
 
世界mPOSデバイス市場のサプライチェーン解析:上流、下流、収益モデル分析2025-2031
yhresearch
 
20250729_TechTalk_QlikTalendCloud_データ品質とデータガバナンス
QlikPresalesJapan
 
PRESENTASI IZIN OPERASIONAL SMK ISLAM KARYA MANDIRI
BAHRULALAM27
 
BEIS ORIENTATION FOR S.Y2024 - 2025.pptx
AsmiraCo2
 

Graph Attention Network

  • 1. Copyright © 2018 TIS Inc. All rights reserved. Graph Attention Network 戦略技術センター 久保隆宏 NodeもEdegeもSpeedも
  • 2. Copyright © 2018 TIS Inc. All rights reserved. 2  Summary  関連研究における位置づけ  Architecture  実験結果  まとめ・所感  参考文献 目次
  • 3. Copyright © 2018 TIS Inc. All rights reserved. 3 Graph Attention Networkは、Graph Convolutionにおける「情報量と計 算速度のトレードオフ」のバランスをうまくとった研究。  Graphにおいては、NodeだけでなくEdgeの情報も重要。ただ、Edge の潜在表現を作っていると計算速度が遅くなる(Modeling Relational Data with Graph Convolutional Networks)。  そこでEdgeの情報をAttentionの重みとして表現した。これにより、そ こそこEdgeの情報をとることができ、計算速度もそこそこを維持でき た。 Summary 論文の引用ネットワークに適 用した図。Node(論文)の情報 だけでなく、Nodeを結ぶエッ ジ情報(=太さ)を取れている (Figure 2より)
  • 4. Copyright © 2018 TIS Inc. All rights reserved. 4 関連研究における位置づけ (1/7) (著者はセルビアの方)
  • 5. Copyright © 2018 TIS Inc. All rights reserved. 5 関連研究における位置づけ (2/7) The graph neural network model 下記特徴をNN(f)に入力しノードの状態 を計算する。状態・特徴から出力を得る。  𝑙 𝑛: ノードの特徴  𝑙 𝑐𝑜[𝑛]: エッジの特徴  𝑥 𝑛𝑒[𝑛]: 周辺ノードの状態  𝑙 𝑛𝑒[𝑛]: 周辺ノードの特徴 入力=>状態の更新を繰り返すが、これ はちょうどRNNと似た形であり(左図) 、 BPTTで更新できる。 ノード検索において、ノード特徴だけ使 うより精度が高いことを確認。 ※特徴とは、化学物質ならノード=炭素/ 酸素、エッジ=結合/二重結合など
  • 6. Copyright © 2018 TIS Inc. All rights reserved. 6 関連研究における位置づけ (3/7) Spectral Networks and Locally Connected Networks on Graphs GraphにCNNを適用する研究。具体的には、CNNの「マルチス ケール」な情報抽出をグラフ上でどう行うか議論している。  ノード=>クラスタリング=>クラスタ特徴=>クラスタ特 徴のクラスタリング=>・・・と繰り返していけばマルチス ケールっぽくなる(左下図参照)  クラスタリングとしてSpectral clusteringを用いる。これ はグラフの隣接行列を固有値分解する手法。  フーリエ級数と固有値ベクトル分解は等価であるため(参考 文献参照)、Graphを信号に見立てたときのFourie展開で計 算が可能。  固有値で役立つのは上位数個(d)のため、常に上位dを取る とすると定型サイズのフィルタを段々と適用するCNNのよ うな形になる。 固有ベクトルの計算が必要で、きっつい
  • 7. Copyright © 2018 TIS Inc. All rights reserved. 7 関連研究における位置づけ (4/7) Convolutional Neural Networks on Graphs with Fast Localized Spectral Filtering SpectralなGraph Convolutionをチェビシェフ展開 (Chebyshev expansion)で近似することで、固有値計算 の必要をなくした。
  • 8. Copyright © 2018 TIS Inc. All rights reserved. 8 関連研究における位置づけ (5/7) Semi-Supervised Classification with Graph Convolutional Networks さらに、フィルタの対象を最近傍(1-step)の周辺ノードに 限定。 ここまで来たら普通に周辺ノードに重みをかけるで良くないか
  • 9. Copyright © 2018 TIS Inc. All rights reserved. 9 関連研究における位置づけ (6/7) 最近よく見る形(すごく普通)
  • 10. Copyright © 2018 TIS Inc. All rights reserved. 10 関連研究における位置づけ (7/7) Graph Attention Network 周辺ノードからの伝搬時にAttentionを加味(シンプ ル!)。
  • 11. Copyright © 2018 TIS Inc. All rights reserved. 11  Attention(𝛼)は、自身(hi)と周辺(hj)にそれぞれ重みを掛け結合したベ クトルを基に算出される。  フィルタがk枚ある場合は、k個の重みそれぞれについてAttentionと Forwardの計算を行い平均をとる。 Architecture Structured deep models: Deep learning on graphs and beyondより
  • 12. Copyright © 2018 TIS Inc. All rights reserved. 12 はじめに: TransductiveとInductiveについて Transductiveは「既知だが、ラベルが未知のノード」についてラベルを予 測するタスク。「既知」というのは、学習データ中にノードがあるという こと。 Inductiveは、未知のノードに対してラベルを予測するタスク。ただ、 ノードは既にグラフ内に追加されたとして、周辺ノードを得ることができ る。 TransductiveよりもInductiveの方が、汎化性能が求められる (Transductiveは、ある意味与えられたグラフに対するOverfitが可能であ るため)。 実験結果 (1/2)
  • 13. Copyright © 2018 TIS Inc. All rights reserved. 13 実験結果 (2/2) 特にInductiveで大きな効果!
  • 14. Copyright © 2018 TIS Inc. All rights reserved. 14 とてもストレートな手法で良好な結果を出している。 Edgeの情報もある程度取れているので、Edgeに関するタスク (LinkPredictionなど)も試してみてほしかった感は少しある(Weightだけ では厳しいかもしれないが)。 Nodeの情報をより高速に取る手法、Edgeの情報をよりリッチに取る手法 はそれぞれ別途あるので、最初に試して必要となればどちらかにスイッチ するという形にも使えそう。 まとめ・所感
  • 15. Copyright © 2018 TIS Inc. All rights reserved. 15  Petar Veličković, Guillem Cucurull, Arantxa Casanova, Adriana Romero and Pietro Liò, Yoshua Bengio. Graph Attention Networks. In ICLR, 2018.  Franco Scarselli, Marco Gori, Ah Chung Tsoi, Markus Hagenbuchner and Gabriele Monfardini. The graph neural network model. Neural Networks, IEEE Transactions on, 20(1):61–80, 2009.  Joan Bruna, Wojciech Zaremba, Arthur Szlam and Yann LeCun. Spectral Networks and Locally Connected Networks on Graphs. In ICLR, 2014.  Spectral由来の手法の起源となる論文。  Mikael Henaff, Joan Bruna and Yann LeCun. Deep Convolutional Networks on Graph-Structured Data. arXiv preprint arXiv:1506.05163, 2015.  Michaël Defferrard, Xavier Bresson and Pierre Vandergheynst. Convolutional Neural Networks on Graphs with Fast Localized Spectral Filtering. In NIPS, 2016.  Thomas N. Kipf and Max Welling. Semi-Supervised Classification with Graph Convolutional Networks. In ICLR, 2017. 参考文献: Papers
  • 16. Copyright © 2018 TIS Inc. All rights reserved. 16  Thomas Kipf. Structured deep models: Deep learning on graphs and beyond. 2018.  Graph Convolutionを行う時にまず参照すべき解説スライド  horiem. フーリエ級数展開をベクトルで直観的に理解する. Phys and Tips, 2016.  固有値分解とフーリエ展開がどう関係するの?というところがなんとなくわかる。  7931. フーリエ級数の3つの解釈/『数学セミナー 2018年3月号』読書メモ その3. 7931のあたまんなか, 2018.  フーリエ級数と固有ベクトル分解の関係がより直接的に書かれている。 参考文献: Articles