SlideShare a Scribd company logo
“Deterministic Independent
Component Analysis”
Ruitong Huang, András György, Csaba Szepesvári
ICML 2015読み会
紹介者: 福地 一斗
自己紹介
• 福地 一斗
• 筑波大学D1
• 佐久間研究室: 機械学習におけるプライバシー
• 研究分野:
• 機械学習:特に学習理論 (公平配慮学習における理論)
紹介する論文
• Deterministic Independent Component Analysis
Ruitong Huang, András György, Csaba Szepesvári
• 証明付き資料はここから
• http://www.ualberta.ca/~szepesva/publications.html
• Learning Theoryトラックでの発表
• 独立成分分析(ICA)をさらに一般化した問題を考案
• その問題の理論解析
• 解析をもとにしたアルゴリズムの導出
独立成分分析 (ICA)
モデル
𝑋 = 𝐴𝑆 + 𝜖
𝑋 ∈ ℝ 𝑑: 観測変数
𝑆 ∈ ℝ 𝑑
: 𝑑個の独立成分
𝐴 ∈ ℝ 𝑑×𝑑: 混合行列
𝜖 ∈ ℝ 𝑑
~ 𝒩(0, Σ): ガウシアンノイズ
𝑇個の𝑋のiidサンプルから𝑆および𝐴を求める問題
Deterministic ICA
モデル 𝑡 ∈ 𝑇 = 1,2, … , 𝑇
𝑥 𝑡 = 𝐴𝑠 𝑡 + 𝜖 𝑡
𝑥: ℕ → ℝ 𝑑: 観測変数
𝑠: ℕ → [−𝐶, 𝐶] 𝑑
: 𝑑個の独立成分
𝐴 ∈ ℝ 𝑑×𝑑: 混合行列
𝜖: ℕ → ℝ 𝑑
: ノイズ
𝑇個の系列𝑥(𝑡) から𝑠(𝑡)および𝐴を求める問題
ただし,Assumption 2.1 + Assumption 2.3
なぜDICAか
線形混合信号 Mix. 1, Mix. 2から元の信号を復元
時系列データを独立成分へ分解
元の信号は時系列データ
• iidサンプルではない  ICA仮定が満たされない
なぜDICAか
時系列データを独立成分へ分解
提案手法(DICA)は既存手法(FastICA, HKICA)に比べ
元の信号をうまく復元できる
どの範囲まで扱えるのか?
Assumption 2.1
• 𝑠 𝑡 , 𝜖 𝑡 は漸近的に経験期待値0
• 𝜖 𝑡 の構造が簡単 (ガウスノイズでなくてもよい)
• 2,3次元モーメントが抑えられている
• 尖度が漸近的に0
Assumption 2.3
• 𝑠 𝑡 , 𝜖 𝑡 は漸近的に4次モーメントまで独立
𝑠(1) 𝑠(2) 𝑠(3) 𝑠(4) 𝑠(5)
マルコフ性を持つような𝑠 𝑡 も扱うことが可能
HKICAアルゴリズム [Hus+ 2013]
行列𝑀の固有ベクトルがスケールした𝐴と一致
𝑚 𝑝
𝜈
𝜂 = 𝔼 𝑋~𝜈 𝜂 𝑇 𝑋 𝑝 , 𝑓𝜈 𝜂 = (𝑚4
𝜈
𝜂 − 3𝑚2
𝜈
𝜂 2)/12
𝑀 = 𝛻2 𝑓𝜈 𝜙 𝛻2 𝑓𝜈 𝜓
−1
ただし, 𝜙 𝑇
𝐴𝑖 𝜓 𝑇
𝐴𝑖が互いに異なる
𝐴の𝑖番目の列ベクトル
𝜙, 𝜓を生成
𝛻2
𝑓𝜈を経験評価
HKICAのDICA設定での解析
ならば
HKICAのDICA設定での解析
ならば
サンプルが十分にある
𝑠 𝑡 が十分独立と見なせる
ICA設定なら𝑂 1 𝑇
HKICAのDICA設定での解析
ならば
サンプルが十分にある
𝑠 𝑡 が十分独立と見なせる
アルゴリズムに依存するパラメータ
𝛾 𝐴 = min
𝑖,𝑗:𝑖≠𝑗
𝜙 𝑇 𝐴𝑖
𝜓 𝑇 𝐴𝑖
2
−
𝜙 𝑇
𝐴𝑗
𝜓 𝑇 𝐴𝑗
2
その他は問題にのみ依存
DICAアルゴリズム
HKICA  収束速度は𝛾 𝐴に大きく依存
𝛾 𝐴 = min
𝑖,𝑗:𝑖≠𝑗
𝜙 𝑇 𝐴𝑖
𝜓 𝑇 𝐴𝑖
2
−
𝜙 𝑇
𝐴𝑗
𝜓 𝑇 𝐴𝑗
2
𝐴は問題設定によるため𝛾 𝐴をコントロールできない
𝐴をコントロールしやすい行列𝑅に置き換えられないか?
𝛾 𝑅 = min
𝑖,𝑗:𝑖≠𝑗
𝜙 𝑇 𝑅𝑖
𝜓 𝑇 𝑅𝑖
2
−
𝜙 𝑇
𝑅𝑗
𝜓 𝑇 𝑅𝑗
2
DICA
すると, Rが対角行列かつ
𝛾 𝑅 ≥
𝛿
2𝑑2
𝑤. 𝑝. 1 − 𝛿
計算量は𝑂 𝑑3 𝑇
𝛻2
𝑓𝜈 𝜓 をコレスキー分解
𝐵をもとに𝑀を計算
DICAの解析結果
ならば
DICAの解析結果
ならば
サンプルが十分にある
𝑠 𝑡 が十分独立と見なせる
ICA設定ならば
𝐷4 𝜇, 𝜈 𝑇 ≤ 𝑂 1 𝑇 , 𝑔 𝑇 ≤ 𝑂 1 𝑇
𝑂 1 𝑇 よりはやくなる?
線形混合信号 Mix. 1, Mix. 2から元の信号を復元
時系列データを独立成分へ分解
𝐷4 𝜇, 𝜈 𝑇 ≤ 𝑂 1 𝑇
𝑔 𝑇 は元の信号やノイズに依存
その他の改良方法
• 再帰バージョン
• 𝑀を求める際に再帰的なアルゴリズムを用いる
• 𝑀の推定誤差を減らすことができる
• Modified DICA
• DICAに𝑀の推定誤差を減らす工夫を取り入れたもの
実験
• 6次元の信号の人工データ
• 𝐴を複数用意: 𝐴1, … , 𝐴4
• 𝐴1にくらべ𝐴4は1/𝛾 𝐴が大きい
• また, 対角行列𝐴 = 𝑅も用意
• 元の信号
• ランダムに +1, −1 を設定した信号𝑞(𝑡)
• 周期の異なるサイン波sin 𝑝𝑖 𝑡
𝑝 = ( 2, 5, 7, 11, 13, 19)
• 信号𝑠𝑖 𝑡 = 𝑞 𝑡 𝑖 ⋅ sin 𝑝𝑖 𝑡
• サンプル数𝑇 = 20000
実験結果
𝐴1𝑅
ノイズの大きさ 大きい小さい
大きい
エ
ラ
ー
𝛾 𝐴が小さい場合FastICAの性能が良い𝛾 𝐴が小さい場合FastICAの性能が良い
実験結果
𝐴3𝐴2 𝐴4
ノイズや𝛾 𝐴が大きくなると再帰版の修正DICA
が一番よくなる
ノイズや𝛾 𝐴が大きくなると再帰版の修正DICA
が一番よくなる
まとめ
• Deterministic ICA
• iidでないような時系列データにも対応したICA
• ガウシアンノイズ出なくてもよい
• DICAアルゴリズム
• コレスキー分解を使ってHKICAを改良
• 再帰版や修正版によって高い性能

More Related Content

PDF
ICML2015概要
jkomiyama
 
PDF
ICML2015読み会 資料
Toshihiro Kamishima
 
PPTX
ICML2015読み会:Optimal and Adaptive Algorithms for Online Boosting
irrrrr
 
PDF
Optimal Regret Analysis of Thompson Sampling in Stochastic Multi-armed Bandit...
jkomiyama
 
PDF
Trust Region Policy Optimization
mooopan
 
PDF
論文紹介 Compressing Neural Networks with the Hashing Trick
Seiya Tokui
 
PDF
Icml2015 論文紹介 sparse_subspace_clustering_with_missing_entries
Takami Sato
 
PDF
Conditional Image Generation with PixelCNN Decoders
suga93
 
ICML2015概要
jkomiyama
 
ICML2015読み会 資料
Toshihiro Kamishima
 
ICML2015読み会:Optimal and Adaptive Algorithms for Online Boosting
irrrrr
 
Optimal Regret Analysis of Thompson Sampling in Stochastic Multi-armed Bandit...
jkomiyama
 
Trust Region Policy Optimization
mooopan
 
論文紹介 Compressing Neural Networks with the Hashing Trick
Seiya Tokui
 
Icml2015 論文紹介 sparse_subspace_clustering_with_missing_entries
Takami Sato
 
Conditional Image Generation with PixelCNN Decoders
suga93
 

Viewers also liked (13)

PDF
Interaction Networks for Learning about Objects, Relations and Physics
Ken Kuroki
 
PPTX
InfoGAN: Interpretable Representation Learning by Information Maximizing Gen...
Shuhei Yoshida
 
PPTX
Introduction of “Fairness in Learning: Classic and Contextual Bandits”
Kazuto Fukuchi
 
PDF
Improving Variational Inference with Inverse Autoregressive Flow
Tatsuya Shirakawa
 
PDF
Learning to learn by gradient descent by gradient descent
Hiroyuki Fukuda
 
PPTX
Introduction of "TrailBlazer" algorithm
Katsuki Ohto
 
PDF
Fast and Probvably Seedings for k-Means
Kimikazu Kato
 
PDF
Value iteration networks
Fujimoto Keisuke
 
PPTX
Differential privacy without sensitivity [NIPS2016読み会資料]
Kentaro Minami
 
PDF
Safe and Efficient Off-Policy Reinforcement Learning
mooopan
 
PDF
Dual Learning for Machine Translation (NIPS 2016)
Toru Fujino
 
PDF
Matching networks for one shot learning
Kazuki Fujikawa
 
PDF
NIPS 2016 Overview and Deep Learning Topics
Koichi Hamada
 
Interaction Networks for Learning about Objects, Relations and Physics
Ken Kuroki
 
InfoGAN: Interpretable Representation Learning by Information Maximizing Gen...
Shuhei Yoshida
 
Introduction of “Fairness in Learning: Classic and Contextual Bandits”
Kazuto Fukuchi
 
Improving Variational Inference with Inverse Autoregressive Flow
Tatsuya Shirakawa
 
Learning to learn by gradient descent by gradient descent
Hiroyuki Fukuda
 
Introduction of "TrailBlazer" algorithm
Katsuki Ohto
 
Fast and Probvably Seedings for k-Means
Kimikazu Kato
 
Value iteration networks
Fujimoto Keisuke
 
Differential privacy without sensitivity [NIPS2016読み会資料]
Kentaro Minami
 
Safe and Efficient Off-Policy Reinforcement Learning
mooopan
 
Dual Learning for Machine Translation (NIPS 2016)
Toru Fujino
 
Matching networks for one shot learning
Kazuki Fujikawa
 
NIPS 2016 Overview and Deep Learning Topics
Koichi Hamada
 
Ad

Similar to 論文紹介 Deterministic Independent Component Analysis (8)

PDF
Rokko チュートリアル
Computational Materials Science Initiative
 
PPTX
猫でも分かるVariational AutoEncoder
Sho Tatsuno
 
PDF
tokyor29th
Mikiya Tanizawa
 
PPTX
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
Deep Learning JP
 
PDF
Akira Imakura
Suurist
 
PPTX
第7回 KAIM 金沢人工知能勉強会 回帰分析と使う上での注意事項
tomitomi3 tomitomi3
 
PDF
Linked Open Dataで実現する作文活動リポジトリと分析
yamahige
 
PPTX
20160716 ICML paper reading, Learning to Generate with Memory
Shinagawa Seitaro
 
Rokko チュートリアル
Computational Materials Science Initiative
 
猫でも分かるVariational AutoEncoder
Sho Tatsuno
 
tokyor29th
Mikiya Tanizawa
 
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
Deep Learning JP
 
Akira Imakura
Suurist
 
第7回 KAIM 金沢人工知能勉強会 回帰分析と使う上での注意事項
tomitomi3 tomitomi3
 
Linked Open Dataで実現する作文活動リポジトリと分析
yamahige
 
20160716 ICML paper reading, Learning to Generate with Memory
Shinagawa Seitaro
 
Ad

Recently uploaded (11)

PDF
TaketoFujikawa_ComicComputing12th_inKumamoto
Matsushita Laboratory
 
PDF
MahiroYoshida_セリフに着目したキャラクタロール推定に関する基礎検討_sigcc12th2025
Matsushita Laboratory
 
PDF
VMUG Japan book vsan 20250515 CPU/Memory vSAN
Kazuhiro Sota
 
PDF
20250729_Devin-for-Enterprise
Masaki Yamakawa
 
PPTX
2025_7_25_吉祥寺_設計ナイト_ADR運用におけるデータ利活用の考え方.pptx
ssuserfcafd1
 
PDF
LoRaWAN ウェザーステーションキット v3 -WSC3-L 日本語ユーザーマニュアル
CRI Japan, Inc.
 
PDF
20250730_QiitaBash_LT登壇資料_PDC_Kurashina.pdf
pdckurashina
 
PDF
【学会聴講報告】CVPR2025からみるVision最先端トレンド / CVPR2025 report
Sony - Neural Network Libraries
 
PDF
20250726_Devinで変えるエンプラシステム開発の未来
Masaki Yamakawa
 
PDF
第三世代 ウェザーステーションキット v3 ー WSC3-L 日本語カタログ
CRI Japan, Inc.
 
PPTX
baserCMS『カスタムコンテンツ』徹底活用術〜あなただけの管理画面を自由自在に〜
Ryuji Egashira
 
TaketoFujikawa_ComicComputing12th_inKumamoto
Matsushita Laboratory
 
MahiroYoshida_セリフに着目したキャラクタロール推定に関する基礎検討_sigcc12th2025
Matsushita Laboratory
 
VMUG Japan book vsan 20250515 CPU/Memory vSAN
Kazuhiro Sota
 
20250729_Devin-for-Enterprise
Masaki Yamakawa
 
2025_7_25_吉祥寺_設計ナイト_ADR運用におけるデータ利活用の考え方.pptx
ssuserfcafd1
 
LoRaWAN ウェザーステーションキット v3 -WSC3-L 日本語ユーザーマニュアル
CRI Japan, Inc.
 
20250730_QiitaBash_LT登壇資料_PDC_Kurashina.pdf
pdckurashina
 
【学会聴講報告】CVPR2025からみるVision最先端トレンド / CVPR2025 report
Sony - Neural Network Libraries
 
20250726_Devinで変えるエンプラシステム開発の未来
Masaki Yamakawa
 
第三世代 ウェザーステーションキット v3 ー WSC3-L 日本語カタログ
CRI Japan, Inc.
 
baserCMS『カスタムコンテンツ』徹底活用術〜あなただけの管理画面を自由自在に〜
Ryuji Egashira
 

論文紹介 Deterministic Independent Component Analysis