SlideShare a Scribd company logo
Vector optimization
석 진 환
용어 정리
• Convex
• Regularization
• L1, L2
최적화 문제 표준적 형태
Q : What is optimal( 제일 좋은 ) vector x* in this primal problem?
Step 1. Existence
( Slater’s Condition )
Step 2. Where?
( KKT Condition )
Step 3. How?
( Backtracking Line Search, Gradient Descent, … )
example
Deep Neural Network
example
선호 체계가 항상 명확한 것은 아니다.
확실한 것은 고등어 4마리와 2000원이 두 경우보다 더 좋다는 것!
짬뽕과 짜장면 중에 하나를 선택해야하는 순간..
Regularization term을 추가하는 이유
- 모수의 절대값을 줄이기 위함.
- 수리적 표현에 대해 고민해보자.
Standard form of “Vector optimization”
Proper cone은 부분적으로 대소 관계를 만들어준다.
‘(제일) 좋은’ 의 정의, Optimal and Pareto optimal
최고 와 최선의 차이
Vector Optimization
Remark.
• Vector optimization 에서는 optimal(최적) point 를 찾기보다는
Pareto(최선) optimal 을 찾는 것이 적절하다.
• Pareto optimal value lies in the boundary of the set of achievable object values.
• Optimal point is Pareto optimal.
• Pareto optimal point 를 모두 찾자.
• 그 중에 Optimal point가 있다면 optimal value를 쉽게 알 수 있다.
Pareto optimal 을 찾는 방법 – Scalarization
이 방법으로 모든 pareto optimal
을 찾을 수 있는 것은 아니다.
• Lemma
𝐿𝑒𝑡 𝑆 𝑏𝑒 𝑎 𝑐𝑜𝑛𝑣𝑒𝑥 𝑠𝑒𝑡. 𝐹𝑜𝑟 𝑎𝑛𝑦 𝑚𝑖𝑛𝑖𝑚𝑎𝑙 𝑒𝑙𝑒𝑚𝑒𝑛𝑡 𝑋 𝑜𝑓 𝑆,
𝑇ℎ𝑒𝑟𝑒 𝑒𝑥𝑖𝑠𝑡𝑠 𝑎 𝑛𝑜𝑛𝑧𝑒𝑟𝑜 𝜆 ≽<∗ 0 𝑠𝑢𝑐ℎ 𝑡ℎ𝑎𝑡 𝑋 𝑚𝑖𝑛𝑖𝑚𝑖𝑧𝑒𝑠 𝜆@
𝑧 𝑜𝑣𝑒𝑟 𝑧 ∈ 𝑆.
pf ) easy
• Proposition
𝐹𝑜𝑟 𝐶𝑜𝑛𝑣𝑒𝑥 𝑣𝑒𝑐𝑡𝑜𝑟 𝑜𝑝𝑡𝑖𝑚𝑖𝑧𝑎𝑡𝑖𝑜𝑛 𝑝𝑟𝑜𝑏𝑙𝑒𝑚, for every Pareto optimal point 𝑥RS
, 𝑡ℎ𝑒𝑟𝑒 𝑖𝑠 𝑎 𝑛𝑜𝑛𝑧𝑒𝑟𝑜 𝜆 ≽<∗ 0 𝑠𝑢𝑐ℎ 𝑡ℎ𝑎𝑡 𝑥RS
𝑚𝑖𝑛𝑖𝑚𝑖𝑧𝑒𝑠 𝑡ℎ𝑒 𝑠𝑐𝑎𝑙𝑎𝑟𝑖𝑧𝑒𝑑 𝑝𝑟𝑜𝑏𝑙𝑒𝑚.
• Remark!
• Optimal of the scalarized problem ⟶ Pareto optimal ⋯ 𝜆 ≻<∗ 0
• Pareto optimal ⟶ Optimal of the scalarized problem ⋯ 𝜆 ≽<∗ 0
초과인지 이상인지는 실무적으로 별 문제 아니다 !!
지금까지 한 것들을 정리를 하면
1. 선호 체계 불확실 할 수 있다.
2. Vector optimization
3. Optimal? No! Pareto optimal !
4. 어떻게? Scalarization !
5. 왜? Proposition에 의해 !
Application
• Regularized least squares
• Smoothing regularization
• Reconstruction, smoothing and de-noising
Application
• Regularized least squares
• Smoothing regularization
• Reconstruction, smoothing and de-noising
Regularized least squares
A : data set, b : label 가 주어지고 선형회귀를 했을때, 적당한 적당한 parameter 𝑥 를 찾는 문제
𝐴𝑖𝑚 ∶ 𝑓𝑖𝑛𝑑 𝑥 𝑡ℎ𝑎𝑡 𝑔𝑖𝑣𝑒𝑠 𝑎 𝑔𝑜𝑜𝑑 𝑓𝑖𝑡 𝑎𝑛𝑑 𝑡ℎ𝑎𝑡 𝑖𝑠 𝑛𝑜𝑡 𝑡𝑜𝑜 𝑙𝑎𝑟𝑔𝑒
이 문제의 Pareto optimal을 찾는 법??
Scalarization !!
Recall : Pareto optimal 을 찾는 방법 – Scalarization
이 방법으로 모든 pareto optimal
을 찾을 수 있는 것은 아니다.
Regularized least squares
극소점 ∶ 미분해서 0이 되는 점
𝜆[ 와 𝜆의 비율을 다르게해서 다른 결과를 만들 수 있다.
- Fitting 을 우선시할지
- Regularization 을 우선시 할지 𝜇 ≫ 1
Application
• Regularized least squares
• Smoothing regularization
• Reconstruction, smoothing and de-noising
Smoothing regularization
• 일반적인 Regularization의 응용.
• 𝑚𝑖𝑛𝑖𝑚𝑖𝑧𝑒 (𝐿 𝐴, 𝒙, 𝑏 , ∥ 𝒙 ∥)
• 𝒙 가 시간에 따른 변수일 때
• (ex, 𝑥d : [0, 1]을 n분할 했을 때, i/n 시점의 온도)
• | 𝒙 | 대신에 | 𝐷𝒙 | 를 넣는다.
• 𝐷𝑥 : 𝑥 의 변동성이나 매끄러운 정도를 측정하는 함수
Smoothing regularization
∆𝑥 d = i번째 시점의 곡률의 근사값
𝛿 = 0
𝜇 = 0.005
𝛿 = 0
𝜇 = 0.05
𝛿 = 0.3
𝜇 = 0.05
𝛿 가 커질수록 smoothing 해지고
𝜇 가 커질수록 input의 크기가 작아진다.
Application
• Regularized least squares
• Smoothing regularization
• Reconstruction, smoothing and de-noising
Reconstruction, smoothing and de-noising
• 𝑥 ∶ 𝑠𝑖𝑔𝑛𝑎𝑙 𝑟𝑒𝑝𝑟𝑒𝑠𝑒𝑛𝑡𝑒𝑑 𝑏𝑦 𝑎 𝑣𝑒𝑐𝑡𝑜𝑟 𝑖𝑛 ℝm
• 𝒙 = 𝑥[, 𝑥, … , 𝑥m , 𝑥d = 𝑥d(𝑡)
• Assume that 𝒙 usually doesn’t vary rapidly.
• e.g. audio signal or video.
• 𝑥oSp = 𝑥 + 𝑣, 𝑣 ∶ 𝑛𝑜𝑖𝑠𝑒
• 원래 신호(𝑥)에 노이즈(𝑣)가 섞인 신호(𝑥oSp) 를 샘플링 했을 때, 원래 신호(𝑥) 가 무엇인지
추정하고 싶다.
• 𝑤𝑒 𝑤𝑎𝑛𝑡 𝑡𝑜 𝑒𝑠𝑡𝑖𝑚𝑎𝑡𝑒 s𝑥 𝑜𝑓 𝑡ℎ𝑒 𝑜𝑟𝑖𝑔𝑖𝑛𝑎𝑙 𝑠𝑖𝑔𝑛𝑎𝑙 𝑥, 𝑔𝑖𝑣𝑒𝑛 𝑡ℎ𝑒 𝑐𝑜𝑟𝑟𝑢𝑝𝑡𝑒𝑑 𝑠𝑖𝑔𝑛𝑎𝑙 𝑥oSp.
Reconstruction, smoothing and de-noising
𝜙 ∶ 𝑟𝑒𝑔𝑢𝑙𝑎𝑟𝑖𝑧𝑎𝑡𝑖𝑜𝑛 𝑓𝑢𝑛𝑐𝑡𝑖𝑜𝑛 𝑜𝑟 𝑠𝑚𝑜𝑜𝑡ℎ𝑖𝑛𝑔 𝑜𝑏𝑗𝑒𝑐𝑡𝑖𝑣𝑒
𝜙 𝑚𝑒𝑎𝑠𝑢𝑟𝑒𝑠 𝑟𝑜𝑢𝑔ℎ𝑛𝑒𝑠𝑠 𝑜𝑟 𝑙𝑎𝑐𝑘 𝑜𝑓 𝑠𝑚𝑜𝑜𝑡ℎ𝑛𝑒𝑠𝑠 𝑜𝑓 s𝑥 + convex
Reconstruction, smoothing and de-noising
Reconstruction, smoothing and de-noising
Reconstruction, smoothing and de-noising
Rapid variation이 있는 경우
끝.

More Related Content

PDF
밑바닥부터 시작하는 딥러닝 - 학습관련기술들 스크립트
혜승 이
 
PDF
05. k means clustering ( k-means 클러스터링)
Jeonghun Yoon
 
PDF
Ch6.학습관련기술들
혜승 이
 
PDF
밑바닥부터 시작하는 딥러닝_신경망학습
Juhui Park
 
PDF
밑바닥부터 시작하는 딥러닝_학습 관련 기술
Juhui Park
 
PPTX
Neural network (perceptron)
Jeonghun Yoon
 
PDF
08. spectal clustering
Jeonghun Yoon
 
밑바닥부터 시작하는 딥러닝 - 학습관련기술들 스크립트
혜승 이
 
05. k means clustering ( k-means 클러스터링)
Jeonghun Yoon
 
Ch6.학습관련기술들
혜승 이
 
밑바닥부터 시작하는 딥러닝_신경망학습
Juhui Park
 
밑바닥부터 시작하는 딥러닝_학습 관련 기술
Juhui Park
 
Neural network (perceptron)
Jeonghun Yoon
 
08. spectal clustering
Jeonghun Yoon
 

Similar to Vector Optimization (20)

PDF
강화 학습 기초 Reinforcement Learning an introduction
Taehoon Kim
 
PDF
Coursera Machine Learning (by Andrew Ng)_강의정리
SANG WON PARK
 
PDF
가깝고도 먼 Trpo
Woong won Lee
 
PDF
파이썬과 케라스로 배우는 강화학습 저자특강
Woong won Lee
 
PDF
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 4장. 모델 훈련
Haesun Park
 
PPTX
[한글] Tutorial: Sparse variational dropout
Wuhyun Rico Shin
 
PPTX
3 sat with randomization
Changki Yun
 
PDF
03. linear regression
Jeonghun Yoon
 
PDF
GBRT tutorial
Minsub Yim
 
PDF
[밑러닝] Chap06 학습관련기술들
종현 최
 
PDF
DL from scratch(6)
Park Seong Hyeon
 
PDF
ESM Mid term Review
Mario Cho
 
PDF
코드와 실습으로 이해하는 인공지능
도형 임
 
PDF
3.neural networks
Haesun Park
 
PDF
Deep Learning from scratch 4장 : neural network learning
JinSooKim80
 
PDF
Decision tree
Jeonghun Yoon
 
PDF
Deep Learning from scratch 5장 : backpropagation
JinSooKim80
 
PDF
[GomGuard] 뉴런부터 YOLO 까지 - 딥러닝 전반에 대한 이야기
JungHyun Hong
 
PPTX
Variational inference intro. (korean ver.)
Kiho Hong
 
PPTX
Control as Inference.pptx
ssuserbd1647
 
강화 학습 기초 Reinforcement Learning an introduction
Taehoon Kim
 
Coursera Machine Learning (by Andrew Ng)_강의정리
SANG WON PARK
 
가깝고도 먼 Trpo
Woong won Lee
 
파이썬과 케라스로 배우는 강화학습 저자특강
Woong won Lee
 
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 4장. 모델 훈련
Haesun Park
 
[한글] Tutorial: Sparse variational dropout
Wuhyun Rico Shin
 
3 sat with randomization
Changki Yun
 
03. linear regression
Jeonghun Yoon
 
GBRT tutorial
Minsub Yim
 
[밑러닝] Chap06 학습관련기술들
종현 최
 
DL from scratch(6)
Park Seong Hyeon
 
ESM Mid term Review
Mario Cho
 
코드와 실습으로 이해하는 인공지능
도형 임
 
3.neural networks
Haesun Park
 
Deep Learning from scratch 4장 : neural network learning
JinSooKim80
 
Decision tree
Jeonghun Yoon
 
Deep Learning from scratch 5장 : backpropagation
JinSooKim80
 
[GomGuard] 뉴런부터 YOLO 까지 - 딥러닝 전반에 대한 이야기
JungHyun Hong
 
Variational inference intro. (korean ver.)
Kiho Hong
 
Control as Inference.pptx
ssuserbd1647
 
Ad

More from SEMINARGROOT (20)

PDF
Metric based meta_learning
SEMINARGROOT
 
PDF
Sampling method : MCMC
SEMINARGROOT
 
PDF
Demystifying Neural Style Transfer
SEMINARGROOT
 
PDF
Towards Deep Learning Models Resistant to Adversarial Attacks.
SEMINARGROOT
 
PDF
The ways of node embedding
SEMINARGROOT
 
PDF
Graph Convolutional Network
SEMINARGROOT
 
PDF
Denoising With Frequency Domain
SEMINARGROOT
 
PDF
Bayesian Statistics
SEMINARGROOT
 
PDF
Coding Test Review 3
SEMINARGROOT
 
PDF
Time Series Analysis - ARMA
SEMINARGROOT
 
PDF
Differential Geometry for Machine Learning
SEMINARGROOT
 
PDF
Generative models : VAE and GAN
SEMINARGROOT
 
PDF
Effective Python
SEMINARGROOT
 
PDF
Understanding Blackbox Prediction via Influence Functions
SEMINARGROOT
 
PDF
Attention Is All You Need
SEMINARGROOT
 
PDF
Attention
SEMINARGROOT
 
PDF
WWW 2020 XAI Tutorial Review
SEMINARGROOT
 
PDF
Coding test review 2
SEMINARGROOT
 
PDF
Locality sensitive hashing
SEMINARGROOT
 
PDF
Coding Test Review1
SEMINARGROOT
 
Metric based meta_learning
SEMINARGROOT
 
Sampling method : MCMC
SEMINARGROOT
 
Demystifying Neural Style Transfer
SEMINARGROOT
 
Towards Deep Learning Models Resistant to Adversarial Attacks.
SEMINARGROOT
 
The ways of node embedding
SEMINARGROOT
 
Graph Convolutional Network
SEMINARGROOT
 
Denoising With Frequency Domain
SEMINARGROOT
 
Bayesian Statistics
SEMINARGROOT
 
Coding Test Review 3
SEMINARGROOT
 
Time Series Analysis - ARMA
SEMINARGROOT
 
Differential Geometry for Machine Learning
SEMINARGROOT
 
Generative models : VAE and GAN
SEMINARGROOT
 
Effective Python
SEMINARGROOT
 
Understanding Blackbox Prediction via Influence Functions
SEMINARGROOT
 
Attention Is All You Need
SEMINARGROOT
 
Attention
SEMINARGROOT
 
WWW 2020 XAI Tutorial Review
SEMINARGROOT
 
Coding test review 2
SEMINARGROOT
 
Locality sensitive hashing
SEMINARGROOT
 
Coding Test Review1
SEMINARGROOT
 
Ad

Vector Optimization

  • 2. 용어 정리 • Convex • Regularization • L1, L2
  • 3. 최적화 문제 표준적 형태 Q : What is optimal( 제일 좋은 ) vector x* in this primal problem? Step 1. Existence ( Slater’s Condition ) Step 2. Where? ( KKT Condition ) Step 3. How? ( Backtracking Line Search, Gradient Descent, … )
  • 6. 선호 체계가 항상 명확한 것은 아니다. 확실한 것은 고등어 4마리와 2000원이 두 경우보다 더 좋다는 것!
  • 7. 짬뽕과 짜장면 중에 하나를 선택해야하는 순간.. Regularization term을 추가하는 이유 - 모수의 절대값을 줄이기 위함. - 수리적 표현에 대해 고민해보자.
  • 8. Standard form of “Vector optimization” Proper cone은 부분적으로 대소 관계를 만들어준다.
  • 9. ‘(제일) 좋은’ 의 정의, Optimal and Pareto optimal 최고 와 최선의 차이
  • 11. Remark. • Vector optimization 에서는 optimal(최적) point 를 찾기보다는 Pareto(최선) optimal 을 찾는 것이 적절하다. • Pareto optimal value lies in the boundary of the set of achievable object values. • Optimal point is Pareto optimal. • Pareto optimal point 를 모두 찾자. • 그 중에 Optimal point가 있다면 optimal value를 쉽게 알 수 있다.
  • 12. Pareto optimal 을 찾는 방법 – Scalarization 이 방법으로 모든 pareto optimal 을 찾을 수 있는 것은 아니다.
  • 13. • Lemma 𝐿𝑒𝑡 𝑆 𝑏𝑒 𝑎 𝑐𝑜𝑛𝑣𝑒𝑥 𝑠𝑒𝑡. 𝐹𝑜𝑟 𝑎𝑛𝑦 𝑚𝑖𝑛𝑖𝑚𝑎𝑙 𝑒𝑙𝑒𝑚𝑒𝑛𝑡 𝑋 𝑜𝑓 𝑆, 𝑇ℎ𝑒𝑟𝑒 𝑒𝑥𝑖𝑠𝑡𝑠 𝑎 𝑛𝑜𝑛𝑧𝑒𝑟𝑜 𝜆 ≽<∗ 0 𝑠𝑢𝑐ℎ 𝑡ℎ𝑎𝑡 𝑋 𝑚𝑖𝑛𝑖𝑚𝑖𝑧𝑒𝑠 𝜆@ 𝑧 𝑜𝑣𝑒𝑟 𝑧 ∈ 𝑆. pf ) easy • Proposition 𝐹𝑜𝑟 𝐶𝑜𝑛𝑣𝑒𝑥 𝑣𝑒𝑐𝑡𝑜𝑟 𝑜𝑝𝑡𝑖𝑚𝑖𝑧𝑎𝑡𝑖𝑜𝑛 𝑝𝑟𝑜𝑏𝑙𝑒𝑚, for every Pareto optimal point 𝑥RS , 𝑡ℎ𝑒𝑟𝑒 𝑖𝑠 𝑎 𝑛𝑜𝑛𝑧𝑒𝑟𝑜 𝜆 ≽<∗ 0 𝑠𝑢𝑐ℎ 𝑡ℎ𝑎𝑡 𝑥RS 𝑚𝑖𝑛𝑖𝑚𝑖𝑧𝑒𝑠 𝑡ℎ𝑒 𝑠𝑐𝑎𝑙𝑎𝑟𝑖𝑧𝑒𝑑 𝑝𝑟𝑜𝑏𝑙𝑒𝑚. • Remark! • Optimal of the scalarized problem ⟶ Pareto optimal ⋯ 𝜆 ≻<∗ 0 • Pareto optimal ⟶ Optimal of the scalarized problem ⋯ 𝜆 ≽<∗ 0 초과인지 이상인지는 실무적으로 별 문제 아니다 !!
  • 14. 지금까지 한 것들을 정리를 하면 1. 선호 체계 불확실 할 수 있다. 2. Vector optimization 3. Optimal? No! Pareto optimal ! 4. 어떻게? Scalarization ! 5. 왜? Proposition에 의해 !
  • 15. Application • Regularized least squares • Smoothing regularization • Reconstruction, smoothing and de-noising
  • 16. Application • Regularized least squares • Smoothing regularization • Reconstruction, smoothing and de-noising
  • 17. Regularized least squares A : data set, b : label 가 주어지고 선형회귀를 했을때, 적당한 적당한 parameter 𝑥 를 찾는 문제 𝐴𝑖𝑚 ∶ 𝑓𝑖𝑛𝑑 𝑥 𝑡ℎ𝑎𝑡 𝑔𝑖𝑣𝑒𝑠 𝑎 𝑔𝑜𝑜𝑑 𝑓𝑖𝑡 𝑎𝑛𝑑 𝑡ℎ𝑎𝑡 𝑖𝑠 𝑛𝑜𝑡 𝑡𝑜𝑜 𝑙𝑎𝑟𝑔𝑒 이 문제의 Pareto optimal을 찾는 법?? Scalarization !!
  • 18. Recall : Pareto optimal 을 찾는 방법 – Scalarization 이 방법으로 모든 pareto optimal 을 찾을 수 있는 것은 아니다.
  • 19. Regularized least squares 극소점 ∶ 미분해서 0이 되는 점 𝜆[ 와 𝜆의 비율을 다르게해서 다른 결과를 만들 수 있다. - Fitting 을 우선시할지 - Regularization 을 우선시 할지 𝜇 ≫ 1
  • 20. Application • Regularized least squares • Smoothing regularization • Reconstruction, smoothing and de-noising
  • 21. Smoothing regularization • 일반적인 Regularization의 응용. • 𝑚𝑖𝑛𝑖𝑚𝑖𝑧𝑒 (𝐿 𝐴, 𝒙, 𝑏 , ∥ 𝒙 ∥) • 𝒙 가 시간에 따른 변수일 때 • (ex, 𝑥d : [0, 1]을 n분할 했을 때, i/n 시점의 온도) • | 𝒙 | 대신에 | 𝐷𝒙 | 를 넣는다. • 𝐷𝑥 : 𝑥 의 변동성이나 매끄러운 정도를 측정하는 함수
  • 22. Smoothing regularization ∆𝑥 d = i번째 시점의 곡률의 근사값
  • 23. 𝛿 = 0 𝜇 = 0.005 𝛿 = 0 𝜇 = 0.05 𝛿 = 0.3 𝜇 = 0.05 𝛿 가 커질수록 smoothing 해지고 𝜇 가 커질수록 input의 크기가 작아진다.
  • 24. Application • Regularized least squares • Smoothing regularization • Reconstruction, smoothing and de-noising
  • 25. Reconstruction, smoothing and de-noising • 𝑥 ∶ 𝑠𝑖𝑔𝑛𝑎𝑙 𝑟𝑒𝑝𝑟𝑒𝑠𝑒𝑛𝑡𝑒𝑑 𝑏𝑦 𝑎 𝑣𝑒𝑐𝑡𝑜𝑟 𝑖𝑛 ℝm • 𝒙 = 𝑥[, 𝑥, … , 𝑥m , 𝑥d = 𝑥d(𝑡) • Assume that 𝒙 usually doesn’t vary rapidly. • e.g. audio signal or video. • 𝑥oSp = 𝑥 + 𝑣, 𝑣 ∶ 𝑛𝑜𝑖𝑠𝑒 • 원래 신호(𝑥)에 노이즈(𝑣)가 섞인 신호(𝑥oSp) 를 샘플링 했을 때, 원래 신호(𝑥) 가 무엇인지 추정하고 싶다. • 𝑤𝑒 𝑤𝑎𝑛𝑡 𝑡𝑜 𝑒𝑠𝑡𝑖𝑚𝑎𝑡𝑒 s𝑥 𝑜𝑓 𝑡ℎ𝑒 𝑜𝑟𝑖𝑔𝑖𝑛𝑎𝑙 𝑠𝑖𝑔𝑛𝑎𝑙 𝑥, 𝑔𝑖𝑣𝑒𝑛 𝑡ℎ𝑒 𝑐𝑜𝑟𝑟𝑢𝑝𝑡𝑒𝑑 𝑠𝑖𝑔𝑛𝑎𝑙 𝑥oSp.
  • 26. Reconstruction, smoothing and de-noising 𝜙 ∶ 𝑟𝑒𝑔𝑢𝑙𝑎𝑟𝑖𝑧𝑎𝑡𝑖𝑜𝑛 𝑓𝑢𝑛𝑐𝑡𝑖𝑜𝑛 𝑜𝑟 𝑠𝑚𝑜𝑜𝑡ℎ𝑖𝑛𝑔 𝑜𝑏𝑗𝑒𝑐𝑡𝑖𝑣𝑒 𝜙 𝑚𝑒𝑎𝑠𝑢𝑟𝑒𝑠 𝑟𝑜𝑢𝑔ℎ𝑛𝑒𝑠𝑠 𝑜𝑟 𝑙𝑎𝑐𝑘 𝑜𝑓 𝑠𝑚𝑜𝑜𝑡ℎ𝑛𝑒𝑠𝑠 𝑜𝑓 s𝑥 + convex
  • 29. Reconstruction, smoothing and de-noising Rapid variation이 있는 경우
  • 30. 끝.