SlideShare a Scribd company logo
1
DEEP LEARNING JP
[DL Papers]
http://deeplearning.jp/
Understanding Black-box Predictions
via Influence Functions
Fukuta Keisuke	Harada&Ushiku Lab.
書誌情報
• ICML	2017	best	paper!!
• From	Stanford	University
• Deep	Learning解析系
Background
「DLモデルは、何故その出力をしたのかがよくわからない」
「Black	boxは使いづらい」
→ 何故モデルがこの出力したのか知りたい
◦ モデル改善、新たな知識発見、実アプリケーションへ向けて
関連研究
• あるdata点周りのみを考慮してよりsimpleなmodelでfittingさせて解析
[Ribeiro,	2016]
• Data点にノイズを加えて予測がどう変化するか
[Simyonyanet	al.,	2013],	[Adler	et	al.,	2016]
これらの研究は与えられたモデルがどう予測を変化させるかを解析したもの
本研究は、”なぜこのモデルに至ったのか”について考察するアプローチ
概要
• “Study	models	though	the	lens	of	their	training	data”
◦ モデルがどうなっているか ->	なぜモデルがそうなったのか
◦ 学習サンプルに着目
◦ もしこのサンプルを学習に使わなかったらどうなるのか
• 特定の学習サンプルがモデルパラメータに与える影響を定量的に解析
◦ 一つずつ抜いて再学習すればいい話ではあるが時間がかかりすぎる
◦ 統計で古くから利用されていた影響関数(influence	function)を利用
◦ Generalized	linear	modelsではすでに解析例があるが、比較的小さいモデルだった
Contribution
1. 影響関数(influence	function)を用いて、特定の学習データの有無や、
学習データに加える摂動が予測結果に与える影響を定式化
2. DNN等の複雑なモデルに対する影響関数の効率的な計算手法の提案
◦ ナイーブに行うとパラメータ数の二乗のオーダーの計算となり、不可能
3. 実際の解析例、アプリケーションの検証
1. モデルの挙動の理解
2. ネットワークを混乱させる摂動の計算
◦ Adversarial	training samplesの作成
3. ドメイン不適合の検知
4. ノイズラベルの検出
影響関数
特定の学習データがモデルの予測結果に与える影響を定量的に知りたい
ただし、再学習無しで
1. 特定の学習データがモデルパラメータに与える影響を計算
2. それが予測結果に与える影響を計算
準備
• Training	dataset	{𝑧",𝑧$,…, 𝑧&}			, 	 𝑧) = (𝑥),𝑦))
• データ点 𝑧 に対する,	parameter	𝜃 の損失を 𝐿 𝑧, 𝜃 とする
→ datasetの経験損失 𝑅(𝜃) =
"
&
	∑ 𝐿(𝑧),𝜃&
)3" )
• 𝜃4 	≡ 𝑎𝑟𝑔𝑚𝑖𝑛<		𝑅(𝜃)
• 仮定 (あとでこの仮定についても検証します)
◦ 損失𝑅(𝜃)は凸関数 (𝜃4はglobal	minimum)
◦ 損失𝑅(𝜃)は二回微分可能
影響関数
損失を最小化する 𝜃4が計算できたとする
𝜃= 	≡ 𝑎𝑟𝑔𝑚𝑖𝑛<	
1
𝑛
	? 𝐿(𝑧), 𝜃
&
)3"
)	
ある学習データ 𝑧 = (𝑥, 𝑦) を使わずに学習を行った場合のパラメータを𝜃4@Aとする
𝜃=@A 	 ≡ 𝑎𝑟𝑔𝑚𝑖𝑛<	
1
𝑛
	 ? 𝐿(𝑧), 𝜃)
AB	CA
→ 𝜃4@A − 𝜃4 を計算したい
*当然、再学習すれば得られるがすべてのデータ点を一つずつ抜いて
行うのは現実的ではない
影響関数
そこで、損失を少しいじり、損失に対する𝑧の影響をパラメータ𝜖で管理
(𝜖 = −
"
&
	で先程の式と一致)
𝜃=F,A 	≡ 𝑎𝑟𝑔𝑚𝑖𝑛<	
1
𝑛
? 𝐿(𝑧) , 𝜃
&
)3"
) + 𝜖	𝐿(𝑧, 𝜃)
ここで、Cook	&	Wisbergの導出から、
𝐼IJ,JKLKMN 𝑧 ≡	
𝑑𝜃=F,A
𝑑𝜖
P
F3Q
= −𝐻<S
@"
	𝛻< 𝐿 𝑧, 𝜃= 						
𝐻<S ≡
1
n
	? 𝛻<
$
	𝐿(𝑧), 𝜃=)
&
)3"
* つまり、𝐼IJ,JKLKMN(𝑧)は、微小な𝜖に対するパラメータの変化量を表す
また、𝜃4は損失を最小にするものと仮定してるのでヘッシアン𝐻<Sは正定値 ->	逆行列が存在
特定のデータの重みをupweight
した時のparametersの影響関数
Training	lossのヘッシアン
影響関数
𝜖 = −
"
&
が微小であると仮定すると、
𝜃=@A − 𝜃= ≅ −
1
𝑛
	 𝐼IJ,JKLKMN 𝑧
これで再学習無しで 特定の学習データがモデルパラメータに与える影響 が計算できた
次に、それがモデルの予測に与える影響を計算
𝐼IJ,WXNN 𝑧, 𝑧YZNY ≡
𝑑𝐿 𝑧YZNY, 𝜃4F,A
𝑑𝜖
P
F3Q
																			
特定のデータの重みをupweight
した時のtest	lossの影響関数
Chain	rule= 	𝛻< 𝐿 𝑧YZNY, 𝜃4
[
	
𝑑𝜃4F,A
d𝜖
P
F3Q
= −𝛻< 𝐿 𝑧YZNY, 𝜃4
[
𝐻<S
@"
	𝛻< 𝐿 𝑧, 𝜃4 さっきの結果
影響関数
結局、特定の学習データがモデルの予測(ロス)に与える影響は、
𝐼IJ,WXNN 𝑧, 𝑧YZNY = −𝛻< 𝐿 𝑧YZNY, 𝜃4 [
𝐻<S
@"
	𝛻< 𝐿 𝑧, 𝜃4
これで計算できる!!
	𝛻< 𝐿 𝑧, 𝜃4 :	ある学習データのロスの勾配
𝛻< 𝐿 𝑧YZNY, 𝜃4
[
:	あるtest	dataのロスに対する勾配
𝐻<S
@"
:ヘッシアンの逆行列
余談 :	Cook	&	Wisbergの導出
𝜃4F,A = 𝑎𝑟𝑔𝑚𝑖𝑛<	 R 𝜃 + 𝜖	𝐿 𝑧, 𝜃 	なので、𝜃^
F,Aの点でのR 𝜃 + 𝜖	𝐿 𝑧, 𝜃 の1次微分は0
0 = 𝛻𝑅 𝜃4F,A + 𝜖𝛻𝐿(𝑧, 𝜃4F,A)
𝜖 → 0だと仮定して1次までTaylor展開すると
0 ≅ 𝛻𝑅 𝜃4 + 𝜖𝛻𝐿 𝑧, 𝜃4 + 𝛻$ 𝑅 𝜃4 + 𝜖𝛻$ 𝐿 𝑧, 𝜃4 ∆F
∆Fに関して解くと、
∆F≅ 𝛻$ 𝑅 𝜃4 + 𝜖𝛻$ 𝐿 𝑧, 𝜃4
@"
𝛻𝑅 𝜃4 + 𝜖𝛻𝐿 𝑧, 𝜃4
ここで、𝜃4 = 𝑎𝑟𝑔𝑚𝑖𝑛𝑅 𝜃 なので𝛻𝑅 𝜃4 = 0であること、 O(𝜖$) → 0を利用して
∆F	≅ 𝛻$ 𝑅 𝜃4
@"
𝛻𝐿 𝑧, 𝜃4 𝜖 ➔ 	𝐼IJ,JKLKMN 𝑧 ≡ 	
c<Sd,e
cF
|F3Q = −𝐻<S
@"
	𝛻< 𝐿 𝑧, 𝜃4
余談:ニュートン法
最急降下法は1次の勾配しか利用してないが、二階微分まで考慮する勾配法
余談:ニュートン法
𝑓(𝑥)を最適化したい関数として、二次のTaylor展開で近似すると
𝑓 𝑥 + ∆𝑥 ≅ 𝑓 𝑥 + ∆𝑥[ 𝛻𝑓 𝑥 +
1
2
∆𝑥[ 𝛻$ 𝑓 𝑥 ∆𝑥
𝑓 𝑥 + ∆𝑥 を最小化する∆𝑥を求めないので∆𝑥で微分すると、
𝜕𝑓 𝑥 + ∆𝑥
𝜕∆𝑥
= 𝑔 + 𝐻∆𝑥
この偏微分が0になるときに𝑓 𝑥 + ∆𝑥 は最小値を取るので、𝑔 + 𝐻∆𝑥 = 0から、
∆𝑥 = 𝐻@"
𝑔
= 𝑓 𝑥 + ∆𝑥[ 𝑔 +
1
2
∆𝑥[ 𝐻	∆𝑥
余談 :	直観的理解
影響関数(再掲)
𝐼IJ,JKLKMN 𝑧 = −𝐻<S
@"
	𝛻< 𝐿 𝑧, 𝜃=
𝐼IJ,WXNN 𝑧, 𝑧YZNY = −𝛻< 𝐿 𝑧YZNY, 𝜃=
[
	𝐻<S
@"
	𝛻< 𝐿 𝑧, 𝜃=
要は、
• 上の式は、学習データを入れた時に、ニュートン法によって得られる更新方向
• 下の式は、その更新方向と、testエラーの勾配方向の内積
つまり
• それらが同じ向き向いてたら、その学習データはtest	errorを直す方向に更新してくれてたことに
• 逆向きだったら、その学習データはむしろtest	dataに対する予測を悪くしてたことに
実際どうなのか
𝐼IJ,WXNN 𝑧, 𝑧YZNY = −𝛻< 𝐿 𝑧YZNY, 𝜃= [
	𝐻<S
@"
	𝛻< 𝐿 𝑧, 𝜃=
• 直感的には、test	dataと一番似てるtraining	dataが影響を与えているっていう
だけの可能性もある
• ヘッシアンまで見る必要あるのか
Trainingデータへ加えられたノイズの影響
先程は学習データ𝑧を抜いたらどうなるかを考えた
ここでは学習データにノイズが加えられた場合(𝑧j = z + 𝛿)のモデルの出力結果への影響を考える
大体導出は同じなので割愛
𝐼JZLY,JKLKMN 𝑧 = −	𝐻<S
@"
	𝛻m 𝛻< 𝐿 𝑧, 𝜃= 𝛿
𝐼JZLY,WXNN 𝑧, 𝑧YZNY = −𝛻< 𝐿 𝑧YZNY, 𝜃= [
	𝐻<S
@"
	𝛻m 𝛻< 𝐿 𝑧, 𝜃= 	𝛿
これで、学習データにノイズを加えたことによるモデルの影響関数がわかった
あとで出て来るが、これを使うとtraining	dataに混ぜると、
あるtestデータを間違えさせることができるノイズを計算できる
影響関数の効率的な計算
𝐼IJ,WXNN 𝑧, 𝑧YZNY = −𝛻< 𝐿 𝑧YZNY, 𝜃= [
	𝐻<S
@"
	𝛻< 𝐿 𝑧, 𝜃=
この計算は二つの理由で計算量がとても大きい
1. 損失関数のヘッシアン 逆行列	𝐻<S
@"
の計算 𝑂(𝑛𝑝$
+ 𝑝p
)
2. 全訓練データに対する𝐼JZLY,WXNN 𝑧, 𝑧YZNY の反復計算
普通に考えたらDLモデルは10q
	~	10s
オーダーなので、10$Q
とか無理
影響関数の効率的な計算
𝐼IJ,WXNN 𝑧, 𝑧YZNY = −𝛻< 𝐿 𝑧YZNY, 𝜃= [
	𝐻<S
@"
	𝛻< 𝐿 𝑧, 𝜃=
Idea
• 𝑠YZNY ≡	𝐻<S
@"
𝛻< 𝐿 𝑧YZNY, 𝜃4
[
を予め計算しておけば全訓練データに対する計算は楽になる
(二次形式は順番変えて大丈夫)
• 正定値行列𝐴の逆行列とあるベクトルの積 𝐴@" 𝑣は、 𝐴𝑣が計算可能ならば共役勾配法によって
𝐴@"を陽に計算することなく計算可能
• また、ヘッシアンとベクトルの積は、HVP	(Hessian	Vector	Product)と呼ばれ𝑂(𝑝)でヘッシアンを陽
に計算することなく計算可能 (CG法)
• 共役勾配法は毎回全サンプルを利用してH𝑣を計算する必要があって若干遅いので、
[Agarwal	et	al]らの近似手法でも𝑠YZNYを計算してみた。CG法よりも高速に動いた。
影響関数の効率的な計算
Algorithm
1. 𝑣	 ← 𝛻< 𝐿(𝑧YZNY, 𝜃=)
2. 𝐻z
Q
@"
𝑣 ← 𝑣
3. 𝐻z
)
@"
𝑣 ← 𝑣 + (I − 𝛻<
$
𝐿 𝑧NKMJWZc, 𝜃= ) 𝐻z
)@"
@"
𝑣		(𝑖 = 1,2, … , 𝑡)
4. 𝑠YZNY ← 𝐻z
Y
@"
𝑣
これで、全サンプルの影響関数が𝑂(𝑛𝑝 + 𝑟𝑡𝑝)で計算可能
仮定について検証
影響関数の導出に当たって置いた仮定について
1. 損失𝑅(𝜃)は凸関数 (𝜃=はglobal	minimum)
◦ 実際、𝜃4が本当にglobal	minimumである保証はどこにもない
→ そうでなかった場合、Hが正定値行列でなくなるので逆行列が計算できない
(検証によると、CNNを500k	iterationほど学習させてもHは正定値にならなかったらしい)
→ だが、 無理やり𝐻を正定値にする方法がある	𝐻 ← 𝐻 + 𝜆	𝐼
2. 損失𝑅(𝜃)は二回微分可能
◦ Softmax Cross	Entropyなら出来るが、SVMのようにHinge	lossを使ってると二階微分できない
→ smoothに近似すれば行けた!!
解析 :	再学習との比較
一個ずつ抜いて再学習した場合と影響関数を使った場合でどれだけ差がでるか
近似してもでかいネットワークでも大体OK!!!
CNNは	𝐻 ← 𝐻 + 𝜆	𝐼 のトリックを利用
解析 :	微分不可能なロス
• ヒンジで学習したパラメータに対して、smooth	hingeで近似して影響関数計算
Use	case	1:	モデルの挙動の理解
• 犬vs魚の二値分類問題をInception-v3、RBF-SVMで学習
• SVMの方はユークリッド距離に大きく影響
• Inceptionはその傾向はあまり見られず、
より高次な特徴に影響されているとわかる
• Inceptionの方は、犬も魚も両方
魚を認識するのに有効であったと言うことがわかる
Use	case	1:	モデルの挙動の理解
• 数字 4	vs	7
Use	case	2:	Adversarial	training	samples
• 学習データにノイズを加える影響関数を利用すると、あるtest	dataに対して予測
を間違えるような、training	dataを作成することができる
->	adversarial	training	samples
◦ (今まであったのは識別を間違えるような test	dataだった)
• あるモデルを学習 → test	dataをpick	up	->	その予測を最も間違えさせるような
ノイズを、最も影響が大きいサンプルに対して足す ->	再学習
を繰り返して、ほとんどtest	dataに対して実際に間違えさせることができた
◦ ノイズを足すtraining	dataを増やせば増やすほど簡単に間違えさせることが
Use	case	2:	Adversarial	training	samples
• 著者の犬画像にノイズを混ぜてめっちゃ魚に間違えさせるようなdataを量産して
学習させた結果
Use	case	2:	Adversarial	training	samples
知見
1. Inputに加えたノイズはとても小さいが、最終層ではオーダーとして100倍のL2距離に
◦ すなわち見た目では気づかなくても、feature	spaceを調べればわかるかも?
2. ノイズの方向が比較的一貫性がある
◦ ある特定の方向にoverfitさせるのが一番簡単なのかも
3. 元々曖昧な画像にノイズを加えるのが最も影響が大きい
Use	case	3	:	train,	testのdomain	mismatchの検知
• 127の属性から再入院するかしないかを予測する問題
• 元々のTrain	dataには、10歳以下の子供24人いてそのうちの3人が再入院
→ そのうちの再入院しなかった20人をtrain	dataから抜く (test	と分布が異なる)
• 学習させると、当然train	errorとtest	errorに大きな乖離
• そこで、間違えたsampleに対して影響関数が大きかったsampleを探すと、その4
人の子供がhighlightされていた
→ 原因が特定できたことに
Use	case	4	:	ラベルノイズの検知
• Datasetには基本的にラベルノイズがある
• 人手で直すのはかなり大変だが、間違えたサンプルに対して影響関数を使って
並べ直すと楽に直せた!
まとめ・感想
• Best	paperだけあって面白かった
• 長年言われてきたDLは結局black	boxだよねという批評に対して現状では最も説得
力のありそうな解析
• しかし、現在のparameterの近傍しか考慮してないので、
globalに見た時のtraining	dataの影響は実際はわからないのがネック
• 説明を省いたが、training	dataのノイズに関しては、小さい連続的なものに限って導
出してるわけではないので離散ノイズや大きめのノイズでも足すことが出来る

More Related Content

PDF
機械学習モデルの判断根拠の説明
Satoshi Hara
 
PPTX
【DL輪読会】A Time Series is Worth 64 Words: Long-term Forecasting with Transformers
Deep Learning JP
 
PDF
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...
Deep Learning JP
 
PPTX
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
Shota Imai
 
PDF
“機械学習の説明”の信頼性
Satoshi Hara
 
PDF
BlackBox モデルの説明性・解釈性技術の実装
Deep Learning Lab(ディープラーニング・ラボ)
 
PPTX
Diffusion models beat gans on image synthesis
BeerenSahu
 
PDF
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
Deep Learning JP
 
機械学習モデルの判断根拠の説明
Satoshi Hara
 
【DL輪読会】A Time Series is Worth 64 Words: Long-term Forecasting with Transformers
Deep Learning JP
 
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...
Deep Learning JP
 
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
Shota Imai
 
“機械学習の説明”の信頼性
Satoshi Hara
 
BlackBox モデルの説明性・解釈性技術の実装
Deep Learning Lab(ディープラーニング・ラボ)
 
Diffusion models beat gans on image synthesis
BeerenSahu
 
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
Deep Learning JP
 

What's hot (20)

PDF
機械学習モデルの判断根拠の説明(Ver.2)
Satoshi Hara
 
PDF
機械学習研究の現状とこれから
MLSE
 
PDF
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII
 
PPTX
【DL輪読会】Scaling Laws for Neural Language Models
Deep Learning JP
 
PPTX
Curriculum Learning (関東CV勉強会)
Yoshitaka Ushiku
 
PDF
【メタサーベイ】数式ドリブン教師あり学習
cvpaper. challenge
 
PPTX
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Yusuke Uchida
 
PDF
Transformer メタサーベイ
cvpaper. challenge
 
PPTX
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
西岡 賢一郎
 
PDF
Transformerを多層にする際の勾配消失問題と解決法について
Sho Takase
 
PPTX
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...
Deep Learning JP
 
PDF
pymcとpystanでベイズ推定してみた話
Classi.corp
 
PPTX
【DL輪読会】DayDreamer: World Models for Physical Robot Learning
Deep Learning JP
 
PDF
グラフニューラルネットワークとグラフ組合せ問題
joisino
 
PPTX
PILCO - 第一回高橋研究室モデルベース強化学習勉強会
Shunichi Sekiguchi
 
PDF
Bayesian Neural Networks : Survey
tmtm otm
 
PPTX
【論文紹介】How Powerful are Graph Neural Networks?
Masanao Ochi
 
PDF
[DL輪読会]ICLR2020の分布外検知速報
Deep Learning JP
 
PDF
最適化超入門
Takami Sato
 
PDF
【メタサーベイ】基盤モデル / Foundation Models
cvpaper. challenge
 
機械学習モデルの判断根拠の説明(Ver.2)
Satoshi Hara
 
機械学習研究の現状とこれから
MLSE
 
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII
 
【DL輪読会】Scaling Laws for Neural Language Models
Deep Learning JP
 
Curriculum Learning (関東CV勉強会)
Yoshitaka Ushiku
 
【メタサーベイ】数式ドリブン教師あり学習
cvpaper. challenge
 
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Yusuke Uchida
 
Transformer メタサーベイ
cvpaper. challenge
 
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
西岡 賢一郎
 
Transformerを多層にする際の勾配消失問題と解決法について
Sho Takase
 
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...
Deep Learning JP
 
pymcとpystanでベイズ推定してみた話
Classi.corp
 
【DL輪読会】DayDreamer: World Models for Physical Robot Learning
Deep Learning JP
 
グラフニューラルネットワークとグラフ組合せ問題
joisino
 
PILCO - 第一回高橋研究室モデルベース強化学習勉強会
Shunichi Sekiguchi
 
Bayesian Neural Networks : Survey
tmtm otm
 
【論文紹介】How Powerful are Graph Neural Networks?
Masanao Ochi
 
[DL輪読会]ICLR2020の分布外検知速報
Deep Learning JP
 
最適化超入門
Takami Sato
 
【メタサーベイ】基盤モデル / Foundation Models
cvpaper. challenge
 
Ad

Viewers also liked (7)

PDF
[DL輪読会]One Model To Learn Them All
Deep Learning JP
 
PDF
[DL輪読会]Imagination-Augmented Agents for Deep Reinforcement Learning / Learnin...
Deep Learning JP
 
PPTX
[DL輪読会]QUASI-RECURRENT NEURAL NETWORKS
Deep Learning JP
 
PDF
[DL輪読会]Learning to Act by Predicting the Future
Deep Learning JP
 
PDF
[DL輪読会]Opening the Black Box of Deep Neural Networks via Information
Deep Learning JP
 
PDF
[DL輪読会]Deep Direct Reinforcement Learning for Financial Signal Representation...
Deep Learning JP
 
PDF
[DL輪読会]A Bayesian Perspective on Generalization and Stochastic Gradient Descent
Deep Learning JP
 
[DL輪読会]One Model To Learn Them All
Deep Learning JP
 
[DL輪読会]Imagination-Augmented Agents for Deep Reinforcement Learning / Learnin...
Deep Learning JP
 
[DL輪読会]QUASI-RECURRENT NEURAL NETWORKS
Deep Learning JP
 
[DL輪読会]Learning to Act by Predicting the Future
Deep Learning JP
 
[DL輪読会]Opening the Black Box of Deep Neural Networks via Information
Deep Learning JP
 
[DL輪読会]Deep Direct Reinforcement Learning for Financial Signal Representation...
Deep Learning JP
 
[DL輪読会]A Bayesian Perspective on Generalization and Stochastic Gradient Descent
Deep Learning JP
 
Ad

Similar to [DL輪読会]Understanding Black-box Predictions via Influence Functions (20)

PDF
[DL輪読会]Shaping Belief States with Generative Environment Models for RL
Deep Learning JP
 
PDF
第4回数理モデル勉強会(日本植物学会第84回大会関連集会)
TakaakiYonekura
 
PDF
数理解析道場
TakaakiYonekura
 
PDF
【Zansa】第12回勉強会 -PRMLからベイズの世界へ
Zansa
 
PDF
「現実世界に活かす数学」 (麻布高等学校、教養総合、数学講義 5 回目)
Kensuke Otsuki
 
PDF
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
Morpho, Inc.
 
PDF
NIPS KANSAI Reading Group #7: Temporal Difference Models: Model-Free Deep RL ...
Eiji Uchibe
 
PDF
双対性
Yoichi Iwata
 
PPTX
これならわかる最適化数学8章_動的計画法
kenyanonaka
 
PPTX
劣モジュラ最適化と機械学習 3章
Hakky St
 
PDF
論文紹介&実験
SHINGO MORISHITA
 
PPTX
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
Naoki Hayashi
 
PDF
第8回スキル養成講座講義資料.pdf
keiodig
 
PDF
星野「調査観察データの統計科学」第3章
Shuyo Nakatani
 
PDF
ベイズ統計によるデータ解析
Kunihiro Hisatsune
 
PDF
Dive into XGBoost.pdf
Yuuji Hiramatsu
 
PDF
SMO徹底入門 - SVMをちゃんと実装する
sleepy_yoshi
 
PDF
LCCC2010:Learning on Cores, Clusters and Cloudsの解説
Preferred Networks
 
PDF
数値解析と物理学
すずしめ
 
PDF
Probabilistic Graphical Models 輪読会 #1
Takuma Yagi
 
[DL輪読会]Shaping Belief States with Generative Environment Models for RL
Deep Learning JP
 
第4回数理モデル勉強会(日本植物学会第84回大会関連集会)
TakaakiYonekura
 
数理解析道場
TakaakiYonekura
 
【Zansa】第12回勉強会 -PRMLからベイズの世界へ
Zansa
 
「現実世界に活かす数学」 (麻布高等学校、教養総合、数学講義 5 回目)
Kensuke Otsuki
 
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
Morpho, Inc.
 
NIPS KANSAI Reading Group #7: Temporal Difference Models: Model-Free Deep RL ...
Eiji Uchibe
 
双対性
Yoichi Iwata
 
これならわかる最適化数学8章_動的計画法
kenyanonaka
 
劣モジュラ最適化と機械学習 3章
Hakky St
 
論文紹介&実験
SHINGO MORISHITA
 
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
Naoki Hayashi
 
第8回スキル養成講座講義資料.pdf
keiodig
 
星野「調査観察データの統計科学」第3章
Shuyo Nakatani
 
ベイズ統計によるデータ解析
Kunihiro Hisatsune
 
Dive into XGBoost.pdf
Yuuji Hiramatsu
 
SMO徹底入門 - SVMをちゃんと実装する
sleepy_yoshi
 
LCCC2010:Learning on Cores, Clusters and Cloudsの解説
Preferred Networks
 
数値解析と物理学
すずしめ
 
Probabilistic Graphical Models 輪読会 #1
Takuma Yagi
 

More from Deep Learning JP (20)

PPTX
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
Deep Learning JP
 
PPTX
【DL輪読会】事前学習用データセットについて
Deep Learning JP
 
PPTX
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
Deep Learning JP
 
PPTX
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
Deep Learning JP
 
PPTX
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
Deep Learning JP
 
PPTX
【DL輪読会】マルチモーダル LLM
Deep Learning JP
 
PDF
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
Deep Learning JP
 
PPTX
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
Deep Learning JP
 
PDF
【DL輪読会】Can Neural Network Memorization Be Localized?
Deep Learning JP
 
PPTX
【DL輪読会】Hopfield network 関連研究について
Deep Learning JP
 
PPTX
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
Deep Learning JP
 
PDF
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
Deep Learning JP
 
PDF
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
Deep Learning JP
 
PPTX
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
Deep Learning JP
 
PPTX
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
Deep Learning JP
 
PDF
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
Deep Learning JP
 
PPTX
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
Deep Learning JP
 
PDF
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
Deep Learning JP
 
PDF
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
Deep Learning JP
 
PPTX
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
Deep Learning JP
 
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
Deep Learning JP
 
【DL輪読会】事前学習用データセットについて
Deep Learning JP
 
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
Deep Learning JP
 
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
Deep Learning JP
 
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
Deep Learning JP
 
【DL輪読会】マルチモーダル LLM
Deep Learning JP
 
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
Deep Learning JP
 
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
Deep Learning JP
 
【DL輪読会】Can Neural Network Memorization Be Localized?
Deep Learning JP
 
【DL輪読会】Hopfield network 関連研究について
Deep Learning JP
 
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
Deep Learning JP
 
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
Deep Learning JP
 
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
Deep Learning JP
 
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
Deep Learning JP
 
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
Deep Learning JP
 
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
Deep Learning JP
 
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
Deep Learning JP
 
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
Deep Learning JP
 
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
Deep Learning JP
 
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
Deep Learning JP
 

Recently uploaded (11)

PDF
TaketoFujikawa_ComicComputing12th_inKumamoto
Matsushita Laboratory
 
PDF
VMUG Japan book vsan 20250515 CPU/Memory vSAN
Kazuhiro Sota
 
PDF
MahiroYoshida_セリフに着目したキャラクタロール推定に関する基礎検討_sigcc12th2025
Matsushita Laboratory
 
PDF
20250726_Devinで変えるエンプラシステム開発の未来
Masaki Yamakawa
 
PDF
LoRaWAN ウェザーステーションキット v3 -WSC3-L 日本語ユーザーマニュアル
CRI Japan, Inc.
 
PPTX
2025_7_25_吉祥寺_設計ナイト_ADR運用におけるデータ利活用の考え方.pptx
ssuserfcafd1
 
PDF
【学会聴講報告】CVPR2025からみるVision最先端トレンド / CVPR2025 report
Sony - Neural Network Libraries
 
PDF
第三世代 ウェザーステーションキット v3 ー WSC3-L 日本語カタログ
CRI Japan, Inc.
 
PDF
20250729_Devin-for-Enterprise
Masaki Yamakawa
 
PPTX
baserCMS『カスタムコンテンツ』徹底活用術〜あなただけの管理画面を自由自在に〜
Ryuji Egashira
 
PDF
20250730_QiitaBash_LT登壇資料_PDC_Kurashina.pdf
pdckurashina
 
TaketoFujikawa_ComicComputing12th_inKumamoto
Matsushita Laboratory
 
VMUG Japan book vsan 20250515 CPU/Memory vSAN
Kazuhiro Sota
 
MahiroYoshida_セリフに着目したキャラクタロール推定に関する基礎検討_sigcc12th2025
Matsushita Laboratory
 
20250726_Devinで変えるエンプラシステム開発の未来
Masaki Yamakawa
 
LoRaWAN ウェザーステーションキット v3 -WSC3-L 日本語ユーザーマニュアル
CRI Japan, Inc.
 
2025_7_25_吉祥寺_設計ナイト_ADR運用におけるデータ利活用の考え方.pptx
ssuserfcafd1
 
【学会聴講報告】CVPR2025からみるVision最先端トレンド / CVPR2025 report
Sony - Neural Network Libraries
 
第三世代 ウェザーステーションキット v3 ー WSC3-L 日本語カタログ
CRI Japan, Inc.
 
20250729_Devin-for-Enterprise
Masaki Yamakawa
 
baserCMS『カスタムコンテンツ』徹底活用術〜あなただけの管理画面を自由自在に〜
Ryuji Egashira
 
20250730_QiitaBash_LT登壇資料_PDC_Kurashina.pdf
pdckurashina
 

[DL輪読会]Understanding Black-box Predictions via Influence Functions