해커에게 전해들은 머신러닝-3
tensorflowkorea.wordpress.com/슬라이드-자료/
tensorflowkorea.wordpress.com/2016/10/29/해커에게-전해들은-머신러닝
github.com/rickiepark/ml-learn
2016. 11.
Park Haesun(haesunrpark@gmail.com)
여러개를 분류하기
로지스틱 회귀
Neuron
𝑤
*
+
Sigmoid
0 아니면 1
(악성) (양성)
𝑦 =
1
1 + 𝑒−𝑧
𝑥
𝑏
𝑦
여러개로 분류할 땐?
Dog
Cat
Rabbit
여러개로 분류할 땐?
Dog
Cat
Rabbit
Sigmoid
Sigmoid
Sigmoid
멀티 클래스 분류(Multi Class Classification)
Dog
Cat
Rabbit
Sigmoid
Sigmoid
Sigmoid
0 아니면 1(토끼)
0 아니면 1(고양이)
0 아니면 1(강아지)
강아지 예제
Dog
Cat
Rabbit
0.8
0.3
0.1
분류 실패 !
멀티 클래스 분류의 비용 함수
크로스 엔트로피(Cross Entropy)
𝐽 = −
1
𝑚
𝑖=1
𝑚
𝑦𝑙𝑜𝑔 𝑦
비용 계산
Dog
Cat
Rabbit
0.8
0.3
0.1
𝐽 = −
1
𝑚
𝑖=1
𝑚
𝑦𝑙𝑜𝑔 𝑦
비용 계산
Dog
Cat
Rabbit
0.8
0.3
0.1
𝑦 =
𝑑𝑜𝑔
𝑐𝑎𝑡
𝑟𝑎𝑏𝑏𝑖𝑡
=
1
0
0
𝑦 =
0.1
0.8
0.3
𝐽 = −
1
𝑚
𝑖=1
𝑚
𝑦𝑙𝑜𝑔 𝑦
비용 계산
Dog
Cat
Rabbit
0.8
0.3
0.1
𝐽 = − 1 × ln 0.1 + 0 × ln 0.8 + 0 × ln 0.3 /𝑚
𝑦 =
𝑑𝑜𝑔
𝑐𝑎𝑡
𝑟𝑎𝑏𝑏𝑖𝑡
=
1
0
0
𝑦 =
0.1
0.8
0.3
𝐽 = −
1
𝑚
𝑖=1
𝑚
𝑦𝑙𝑜𝑔 𝑦
소프트맥스
어느 것이 강아지에 가까울까?
Dog
Cat
Rabbit
𝑦1 =
0.9
0.8
0.7
𝑦2 =
0.5
0.2
0.1
소프트맥스
𝑦 𝑑𝑜𝑔 =
𝑒 𝑑𝑜𝑔
𝑧
𝑒 𝑑𝑜𝑔
𝑧
+ 𝑒 𝑐𝑎𝑡
𝑧
+ 𝑒 𝑟𝑎𝑏𝑏𝑖𝑡
𝑧 =
𝑒 𝑑𝑜𝑔
𝑧
𝑖=1
𝑛
𝑒 𝑧 𝑖
𝑧 = 𝑤 × 𝑥 + 𝑏
𝑦 =
𝑦 𝑑𝑜𝑔
𝑦 𝑐𝑎𝑡
𝑦 𝑟𝑎𝑏𝑏𝑖𝑡
시그모이드의 z 값 구하기
𝑦1 =
0.9
0.8
0.7
𝑦2 =
0.5
0.2
0.1
𝑦 =
1
1 + 𝑒−𝑧 𝑧 = −𝑙𝑛
1
𝑦
− 1
시그모이드의 z 값 구하기
𝑦1 =
0.9
0.8
0.7
𝑦2 =
0.5
0.2
0.1
𝑦 =
1
1 + 𝑒−𝑧 𝑧 = −𝑙𝑛
1
𝑦
− 1
𝑧1 =
2.2
1.39
0.85
𝑧2 =
0
−1.39
−2.2
𝑦 𝑑𝑜𝑔 =
𝑒 𝑑𝑜𝑔
𝑧
𝑖=1
𝑛
𝑒 𝑧 𝑖
시그모이드의 z 값 구하기
𝑦1 =
0.9
0.8
0.7
𝑦2 =
0.5
0.2
0.1
𝑦 =
1
1 + 𝑒−𝑧 𝑧 = −𝑙𝑛
1
𝑦
− 1
𝑧1 =
2.2
1.39
0.85
𝑧2 =
0
−1.39
−2.2
𝑦 𝑑𝑜𝑔 =
𝑒 𝑑𝑜𝑔
𝑧
𝑖=1
𝑛
𝑒 𝑧 𝑖
𝑦1 =
0.59
0.26
0.15
𝑦2 =
0.74
0.18
0.08
시그모이드의 z 값 구하기
𝑦 =
1
1 + 𝑒−𝑧 𝑧 = −𝑙𝑛
1
𝑦
− 1
𝑧1 =
2.2
1.39
0.85
𝑧2 =
0
−1.39
−2.2
𝑦 𝑑𝑜𝑔 =
𝑒 𝑑𝑜𝑔
𝑧
𝑖=1
𝑛
𝑒 𝑧 𝑖
𝑦1 =
𝟎. 𝟗
0.8
0.7
𝑦2 =
𝟎. 𝟓
0.2
0.1
𝑦1 =
𝟎. 𝟓𝟗
0.26
0.15
𝑦2 =
𝟎. 𝟕𝟒
0.18
0.08
시그모이드 출력
소프트맥스 출력
(정규화된 확률)
소프트맥스 미분은?
Neuron
𝑤
*
+
Softmax
𝑥
𝑏
𝑦
𝑦 =
𝑒 𝑧
𝑖=1
𝑛
𝑒 𝑧 𝑖
𝐽 = −
1
𝑚
𝑖=1
𝑚
𝑦𝑙𝑜𝑔 𝑦
그래디언트는?
소프트맥스를 사용한 비용함수 미분
𝜕𝐽
𝜕𝑤
= −
1
𝑚
𝑖=1
𝑚
𝑦 − 𝑦 𝑥
선형 회귀, 로지스틱 회귀의 비용함수 미분과 동일
!
그래디언트 전파
Neuron
𝑤
*
+
Softmax
𝑥
𝑏
𝑦
𝑦 =
𝑒 𝑧
𝑖=1
𝑛
𝑒 𝑧 𝑖
𝐽 = −
1
𝑚
𝑖=1
𝑚
𝑦𝑙𝑜𝑔 𝑦
𝑦 − 𝑦
𝑦 − 𝑦 𝑥
𝑦 − 𝑦 1
주의: 구현시 고려사항 1
무한대 값 오버플로우 발생
𝑦 =
𝑒 𝑧
𝑖=1
𝑛
𝑒 𝑧 𝑖
주의: 구현시 고려사항 1
𝑦 𝑑𝑜𝑔 =
𝑒1000
𝑒1000 + 𝑒500 + 𝑒10
=
𝑒1000
× 𝑒−1000
𝑒1000 + 𝑒500 + 𝑒10 × 𝑒−1000
=
𝑒1000−1000
𝑒1000−1000 + 𝑒500−1000 + 𝑒10−1000
=
𝑒0
𝑒0 + 𝑒−500 + 𝑒−900
= 1.0
최대값으로 뺀 후 소프트맥스 함수 적용
주의: 구현시 고려사항 2
안전하지 않음
𝑦 =
1
1 + 𝑒−𝑧
주의: 구현시 고려사항 2
안전하지 않음
𝑦 =
1
1 + 𝑒−𝑧
안전한 scipy.special.expit 함수를 사용함
손글씨 숫자 데이터
load_digits
load_digits 데이터셋 이용
1797개 데이터
8x8 크기
0~9 까지 숫자
데이터 확인
0(흰색)~16(검은색)
까지 숫자
이미지 확인
반전 그레이톤
train_test_split
컬러 값 정규화
훈련 / 테스트
데이터 분리
원 핫 인코딩(One Hot Encoding)
𝑦 =
𝑑𝑜𝑔
𝑐𝑎𝑡
𝑟𝑎𝑏𝑏𝑖𝑡
=
1
0
0
원 핫 인코딩(One Hot Encoding)
𝑦 =
𝑑𝑜𝑔
𝑐𝑎𝑡
𝑟𝑎𝑏𝑏𝑖𝑡
=
1
0
0 X
OneHotEncoder
10개 클래스
2차원 배열 변경
딥 뉴럴 네트워크
뉴럴 네트워크
완전 연결 뉴럴 네트워크
(Fully Connected Neural Network)
덴스 네트워크
(Dense Network)
딥 뉴럴 네트워크
(Deep Neural Network, DNN)
입력 데이터 자체
퍼셉트론(Perceptron)
1957년 프랑크 로젠블라트가 발표
뉴럴 네트워크를 멀티레이어 퍼셉트론으로도 부름
사이킷런(v0.18)에는 MLPClassifier, MLPRegressor
완전 연결이 아닌 네트워크
콘볼루션 뉴럴 네트워크
(Convolution Neural Network)
리커런트 뉴럴 네트워크
(Recurrent Neural Network)
피드 포워드 뉴럴 네트워크
= 완전 연결 뉴럴 네트워크
(Fully Connected Neural Network)
= 덴스 네트워크
(Dense Network)
= 멀티 레이어 퍼셉트론
(Multi-Layer Perceptron)
= 피드 포워드 뉴럴 네트워크
(Feed Forward Neural Network)
완전 연결 레이어
100개의 히든 유닛
...
...
히든 레이어
입력 레이어
출력 레이어
이미지의
64개 픽셀
숫자 10개 분류
시그모이드
소프트맥스
𝑥 𝑦
𝑤1, 𝑏1 𝑤2, 𝑏2
바이어스 표기 방식
...
...
이미지의
64개 픽셀
숫자 10개 분류
𝑥 𝑦
𝑤1
𝑏1
𝑏2
𝑤2
뉴런의 갯수
히든 레이어 100개 + 출력 레이어 10개 = 110개
뉴런의 갯수
히든 레이어 100개 + 출력 레이어 10개 = 110개
히든 유닛의 갯수가 수백, 수천개이고
레이어의 갯수가 수십, 수백라면?
뉴런의 식
A
B
C
a
b
𝑤 𝑎𝐴
𝑤 𝑎𝐵
𝑤 𝑎𝐶
𝑏 𝑎
𝑎 = 𝐴 × 𝑤 𝑎𝐴 + 𝐵 × 𝑤 𝑎𝐵 + 𝐶 × 𝑤 𝑎𝐶 + 𝑏 𝑎
뉴런의 식
A
B
C
a
b
𝑤 𝑎𝐴
𝑤 𝑎𝐵
𝑤 𝑎𝐶
𝑏 𝑎
𝑨 𝑩 𝑪 ×
𝒘 𝒂𝑨
𝒘 𝒂𝑩
𝒘 𝒂𝑪
+ 𝒃 𝒂 = (𝒂)
행렬 곱으로 표현 가능
𝑎 = 𝐴 × 𝑤 𝑎𝐴 + 𝐵 × 𝑤 𝑎𝐵 + 𝐶 × 𝑤 𝑎𝐶 + 𝑏 𝑎
행렬곱(Dot Product)
1 × 7 + 2 × 9 + 3 × 11 = 58
행(row)
열(column)
행렬식
A
B
C
a
b
𝑤 𝑎𝐴
𝑤 𝑎𝐵
𝑤 𝑎𝐶
𝑏 𝑎
𝑎 = 𝐴 × 𝑤 𝑎𝐴 + 𝐵 × 𝑤 𝑎𝐵 + 𝐶 × 𝑤 𝑎𝐶 + 𝑏 𝑎
𝑨 𝑩 𝑪 ×
𝒘 𝒂𝑨 𝒘 𝒃𝑨
𝒘 𝒂𝑩 𝒘 𝒃𝑩
𝒘 𝒂𝑪 𝒘 𝒃𝑪
+ 𝒃 𝒂 𝒃 𝒃 = (𝒂 𝒃)
𝑏 = 𝐴 × 𝑤 𝑏𝐴 + 𝐵 × 𝑤 𝑏𝐵 + 𝐶 × 𝑤 𝑏𝐶 + 𝑏 𝑏
행렬식
A
B
C
a
b
𝑤 𝑏𝐴
𝑤 𝑏𝐵
𝑤 𝑏𝐶 𝑏 𝑏
𝑎 = 𝐴 × 𝑤 𝑎𝐴 + 𝐵 × 𝑤 𝑎𝐵 + 𝐶 × 𝑤 𝑎𝐶 + 𝑏 𝑎
𝑨 𝑩 𝑪 ×
𝒘 𝒂𝑨 𝒘 𝒃𝑨
𝒘 𝒂𝑩 𝒘 𝒃𝑩
𝒘 𝒂𝑪 𝒘 𝒃𝑪
+ 𝒃 𝒂 𝒃 𝒃 = (𝒂 𝒃)
𝑏 = 𝐴 × 𝑤 𝑏𝐴 + 𝐵 × 𝑤 𝑏𝐵 + 𝐶 × 𝑤 𝑏𝐶 + 𝑏 𝑏
넘파이로는
넘파이로는
𝑥1
1
⋯ 𝑥64
1
𝑥1
2
⋯ 𝑥64
2
𝑥1
3
⋯ 𝑥64
3
⋮
𝑥1
1617
⋯ 𝑥64
1617
×
𝑤1
1
⋯ 𝑤100
1
𝑤1
2
⋯ 𝑤100
2
⋮
𝑤1
64
⋯ 𝑤100
64
+ 𝑏1 ⋯ 𝑏100 =
𝑡1
1
⋯ 𝑡100
1
𝑡1
2
⋯ 𝑡100
2
⋮
𝑡1
1617
⋯ 𝑡100
1617
1617개
데이터
64개의 픽셀
100개의 히든 레이어 출력
1617개
데이터
1617 × 64 ⋅ 64 × 100 + 100 = 1617 × 100
가중치 행렬 크기
앞 레이어 유닛의 크기 X 현재 레이어 유닛의 크기
가중치 행렬 크기
...
...
히든 레이어 100개
입력 레이어 64개
출력 레이어 10개
이미지의
64개 픽셀
숫자 10개 분류
𝑦
𝑤2 = 100 × 10
𝑥
𝑤1 = 64 × 100
히든 레이어 계산
...
...
히든레이어 100개
이미지의
64개 픽셀
숫자 10개 분류
𝑦𝑥
1617 × 64 ⋅ 64 × 100 + 100 = 1617 × 100
𝒙 ⋅ 𝒘 𝟏 + 𝒃 𝟏 = 𝒕
출력 레이어 계산
...
...
히든레이어 100개
이미지의
64개 픽셀
숫자 10개 분류
𝑦𝑥
1617 × 100 ⋅ 100 × 10 + 10 = 1617 × 10
𝒕 ⋅ 𝒘 𝟐 + 𝒃 𝟐 = 𝒚
정방향 계산
히든 레이어 계산
시그모이드 활성화
함수(expit)
출력 레이어 계산소프트맥스 계산
소프트맥스 함수
행방향 최대값
행방향 exp 합계
열벡터로 변경
𝑦 =
𝑒 𝑧−𝑧 𝑚𝑎𝑥
𝑖=1
𝑛
𝑒 𝑧 𝑖−𝑧 𝑚𝑎𝑥
=
𝑒 𝑡𝑚𝑝
𝑖=1
𝑛
𝑒 𝑡𝑚𝑝
=
𝑒𝑥𝑝_𝑡𝑚𝑝
𝑖=1
𝑛
𝑒𝑥𝑝_𝑡𝑚𝑝𝑖
그래디언트 행렬 계산
가중치와 바이어스 그래디언트
히든 레이어
파라메타 출력 레이어
파라메타
로지스틱 오차와 동일
출력
레이어
𝑤2
*
+
𝑡
𝑏2
𝑦
𝑦 =
𝑒 𝑧
𝑖=1
𝑛
𝑒 𝑧 𝑖
𝐽 = −
1
𝑚
𝑖=1
𝑚
𝑦𝑙𝑜𝑔 𝑦
𝑦 − 𝑦
히든
레이어
𝑤1
*
+
𝑥
𝑏1
로지스틱 오차와 동일
출력
레이어
𝑤2
*
+
𝑡
𝑏2
𝑦
𝜕𝐽
𝜕𝑤2
= 𝑦 − 𝑦 𝑡
𝑦 − 𝑦
𝑦 − 𝑦 𝑡
𝑦 − 𝑦 1
히든
레이어
𝑤1
*
+
𝑥
𝑏1
𝑦 − 𝑦 𝑤2
𝜕𝐽
𝜕𝑏2
= 𝑦 − 𝑦 1
𝜕𝐽
𝜕𝑡
= 𝑦 − 𝑦 𝑤2
로지스틱 오차와 동일
출력
레이어
𝑤2
*
+
𝑡
𝑏2
𝑦
𝑦 − 𝑦
𝑦 − 𝑦 𝑡
𝑦 − 𝑦 1
히든
레이어
𝑤1
*
+
𝑥
𝑏1
𝑒𝑟𝑟2 𝑥
𝑒𝑟𝑟21
𝑦 − 𝑦 𝑤2
𝜕𝐽
𝜕𝑤1
= 𝑦 − 𝑦 𝑤2 𝑡(1 − 𝑡)𝑥
𝜕𝐽
𝜕𝑏1
= 𝑦 − 𝑦 𝑤2 𝑡(1 − 𝑡)1
𝑠 =
1
1 + 𝑒−𝑧
𝜕𝑠
𝜕𝑥
= 𝑠(1 − 𝑠)
𝑒𝑟𝑟2 = 𝑦 − 𝑦 𝑤2 𝑡(1 − 𝑡)
전치행렬
출력 레이어 그래디언트
출력
레이어
𝑤2
*
+
𝑡
𝑏2
𝑦
𝑦 − 𝑦
𝑦 − 𝑦 𝑡
𝑦 − 𝑦 1
𝑦 − 𝑦 𝑤2
𝑦 − 𝑦 = 1617 × 10
𝑡 = 1617 × 100
𝑡 𝑇 = 100 × 1617
𝑡 𝑇 ⋅ 𝑦 − 𝑦 = [100 × 10]
1617개의 훈련 데이터에 각각의
에러를 곱하기 위해 전치시킴
넘파이로는
100 × 1617 ⋅ 1617 × 10 = 100 × 10
1617개의 그래디언
트가 모두 합쳐짐
전치행렬
𝑎𝑣𝑒𝑟𝑎𝑔𝑒( 1617 × 10 ) = 10
열방향으로 평균
𝑤2
𝑏2
출력 레이어 그래디언트
출력
레이어
𝑤2
*
+
𝑡 𝑦
𝑦 − 𝑦
𝑦 − 𝑦 𝑤2
𝑦 − 𝑦 = 1617 × 10
𝑤2 = 100 × 10
𝑤2
𝑇
= 10 × 100
𝑦 − 𝑦 ⋅ 𝑤2
𝑇
= [1617 × 100]
1617개의 에러를 10개의 출력 유닛
에서 100개의 히든 유닛으로 분할
넘파이로는
1617 × 10 ⋅ 10 × 100 = 1617 × 100
전치행렬
𝑡
히든 레이어 그래디언트
출력
레이어
𝑤1
*
+
𝑥
𝑏1
𝑡
𝑒𝑟𝑟2
𝑒𝑟𝑟2 𝑥
𝑒𝑟𝑟21
𝑦 − 𝑦 𝑤2 𝑡 1 − 𝑡 = 𝑒𝑟𝑟2 = 1617 × 100
𝑥 = 1617 × 64
𝑥 𝑇 = 64 × 1617
𝑥 𝑇 ⋅ 𝑒𝑟𝑟2 = [64 × 100]
1617개의 훈련 데이터에 각각의
에러를 곱하기 위해 전치시킴
넘파이로는
64 × 1617 ⋅ 1617 × 100 = 64 × 100
1617개의 그래디언
트가 모두 합쳐짐
전치행렬
𝑎𝑣𝑒𝑟𝑎𝑔𝑒( 1617 × 100 ) = 100
열방향으로 평균
𝑤1
𝑏1
역방향 계산
𝑎𝑣𝑒𝑟𝑎𝑔𝑒( 1617 × 10 ) = 10 100 × 1617 ⋅ 1617 × 10 = 100 × 10
1617 × 10 ⋅ 10 × 100 = 1617 × 100 64 × 1617 ⋅ 1617 × 100 = 64 × 100
𝑎𝑣𝑒𝑟𝑎𝑔𝑒( 1617 × 100 ) = 100
그래디언트 업데이트
완전 연결 뉴럴 네트워크
fit 함수
y_hat이 0일때 음의 무한대
1일때 0 방지
predict 함수
행방향으로 가장 높은 값을
가진 배열의 위치를 반환.
배열의 위치 == 분류값
파라메타 초기화
모델 학습
비용 함수 그래프
사이킷런에서는
MLPClassifier
감사합니다.

More Related Content

PPTX
해커에게 전해들은 머신러닝 #4
PPTX
해커에게 전해들은 머신러닝 #2
PPTX
해커에게 전해들은 머신러닝 #1
PDF
3.neural networks
PDF
4.convolutional neural networks
PDF
3.unsupervised learing
PDF
차원축소 훑어보기 (PCA, SVD, NMF)
PDF
[신경망기초] 신경망의시작-퍼셉트론
해커에게 전해들은 머신러닝 #4
해커에게 전해들은 머신러닝 #2
해커에게 전해들은 머신러닝 #1
3.neural networks
4.convolutional neural networks
3.unsupervised learing
차원축소 훑어보기 (PCA, SVD, NMF)
[신경망기초] 신경망의시작-퍼셉트론

What's hot (20)

PDF
확통 회귀분석
PDF
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 2장. 머신러닝 프로젝트 처음부터 끝까지
PDF
[신경망기초] 선형회귀분석
PPTX
MNIST for ML beginners
PPTX
Variational AutoEncoder(VAE)
PDF
밑바닥부터시작하는딥러닝 Ch05
PPTX
Generative adversarial network
PPTX
R 프로그래밍-향상된 데이타 조작
PDF
밑바닥부터시작하는딥러닝 Ch05
PDF
알고리즘과 자료구조
PDF
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 3장. 분류
PDF
R_datamining
PDF
R 스터디 네번째
PPTX
머신 러닝 입문 #1-머신러닝 소개와 kNN 소개
PDF
R 스터디 두번째
PDF
알고리즘 스터디(정렬) Seungdols
PDF
Digit recognizer
PDF
딥러닝 제대로시작하기 Ch04
PPTX
R 기본-데이타형 소개
PPTX
Deep learning study 1
확통 회귀분석
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 2장. 머신러닝 프로젝트 처음부터 끝까지
[신경망기초] 선형회귀분석
MNIST for ML beginners
Variational AutoEncoder(VAE)
밑바닥부터시작하는딥러닝 Ch05
Generative adversarial network
R 프로그래밍-향상된 데이타 조작
밑바닥부터시작하는딥러닝 Ch05
알고리즘과 자료구조
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 3장. 분류
R_datamining
R 스터디 네번째
머신 러닝 입문 #1-머신러닝 소개와 kNN 소개
R 스터디 두번째
알고리즘 스터디(정렬) Seungdols
Digit recognizer
딥러닝 제대로시작하기 Ch04
R 기본-데이타형 소개
Deep learning study 1
Ad

Viewers also liked (20)

PDF
6.algorithm chains and piplines
PDF
7.woring with text data
PDF
Deep learning 기반TmapPOI 추천기술개발사례
PDF
개발자를 위한 공감세미나 tensor-flow
PDF
Linear regression analysis
PDF
머신러닝 이해하기 (Sample)
PDF
5.model evaluation and improvement
PDF
20160409 microsoft 세미나 머신러닝관련 발표자료
PDF
파이콘 2017 그만퇴근합시다_이지호
PDF
Logistic Regression
PDF
Text summarization
PPTX
머신러닝 시그 세미나_(deep learning for visual recognition)
PDF
빅데이터 전문가 / 데이터 사이언티스트 커리어에 대한 고려 사항과 사례 - Gonnector 고영혁 (Dylan Ko)
PDF
인공지능 변호사 개발 1편 - Ai lawyer 개발을 위한 시도
PDF
4.representing data and engineering features
PDF
AlphaGo 알고리즘 요약
PPTX
1.introduction(epoch#2)
PDF
1.Introduction to Python and TensorFlow
PDF
파이썬 생존 안내서 (자막)
PDF
EMOCON 2017 F/W - Deep Learning과 Keras 기초
6.algorithm chains and piplines
7.woring with text data
Deep learning 기반TmapPOI 추천기술개발사례
개발자를 위한 공감세미나 tensor-flow
Linear regression analysis
머신러닝 이해하기 (Sample)
5.model evaluation and improvement
20160409 microsoft 세미나 머신러닝관련 발표자료
파이콘 2017 그만퇴근합시다_이지호
Logistic Regression
Text summarization
머신러닝 시그 세미나_(deep learning for visual recognition)
빅데이터 전문가 / 데이터 사이언티스트 커리어에 대한 고려 사항과 사례 - Gonnector 고영혁 (Dylan Ko)
인공지능 변호사 개발 1편 - Ai lawyer 개발을 위한 시도
4.representing data and engineering features
AlphaGo 알고리즘 요약
1.introduction(epoch#2)
1.Introduction to Python and TensorFlow
파이썬 생존 안내서 (자막)
EMOCON 2017 F/W - Deep Learning과 Keras 기초
Ad

Similar to 해커에게 전해들은 머신러닝 #3 (20)

PDF
신경망 첫걸음 - 한빛미디어 요약
PDF
[GomGuard] 뉴런부터 YOLO 까지 - 딥러닝 전반에 대한 이야기
PDF
Mlp logical input pattern classfication report doc
PPTX
Neural network (perceptron)
PDF
딥러닝기본-신경망기초
PPTX
iT Cafe - Linear Algebra & Python Overview
PDF
PPTX
2.supervised learning(epoch#2)-3
PDF
2.linear regression and logistic regression
PDF
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 4장. 모델 훈련
PDF
Deep Learning from scratch 5장 : backpropagation
PDF
Deep Learning from scratch 3장 : neural network
PPTX
딥러닝-오차역전파법2
PDF
딥러닝의 기본
PDF
Deep Learning with Python 2-1
PDF
From maching learning to deep learning
PDF
Lecture 4: Neural Networks I
PPTX
Howto_Tensorflow+Linear Regression
PDF
Deep Learning from scratch 4장 : neural network learning
PPTX
Ai 그까이거
신경망 첫걸음 - 한빛미디어 요약
[GomGuard] 뉴런부터 YOLO 까지 - 딥러닝 전반에 대한 이야기
Mlp logical input pattern classfication report doc
Neural network (perceptron)
딥러닝기본-신경망기초
iT Cafe - Linear Algebra & Python Overview
2.supervised learning(epoch#2)-3
2.linear regression and logistic regression
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 4장. 모델 훈련
Deep Learning from scratch 5장 : backpropagation
Deep Learning from scratch 3장 : neural network
딥러닝-오차역전파법2
딥러닝의 기본
Deep Learning with Python 2-1
From maching learning to deep learning
Lecture 4: Neural Networks I
Howto_Tensorflow+Linear Regression
Deep Learning from scratch 4장 : neural network learning
Ai 그까이거

More from Haesun Park (18)

PDF
사이킷런 최신 변경 사항 스터디
PDF
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 9장 텐서플로 시작하기
PDF
(Handson ml)ch.8-dimensionality reduction
PDF
(Handson ml)ch.7-ensemble learning and random forest
PDF
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 6장 결정 트리
PDF
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 5장. 서포트 벡터 머신
PDF
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 1장. 한눈에 보는 머신러닝
PDF
7.woring with text data(epoch#2)
PDF
6.algorithm chains and piplines(epoch#2)
PDF
5.model evaluation and improvement(epoch#2) 2
PDF
5.model evaluation and improvement(epoch#2) 1
PPTX
4.representing data and engineering features(epoch#2)
PDF
3.unsupervised learing(epoch#2)
PPTX
2.supervised learning(epoch#2)-2
PPTX
2.supervised learning(epoch#2)-1
PDF
2.supervised learning
PDF
1.introduction
PDF
기계도 학교에 가나요?
사이킷런 최신 변경 사항 스터디
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 9장 텐서플로 시작하기
(Handson ml)ch.8-dimensionality reduction
(Handson ml)ch.7-ensemble learning and random forest
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 6장 결정 트리
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 5장. 서포트 벡터 머신
[홍대 머신러닝 스터디 - 핸즈온 머신러닝] 1장. 한눈에 보는 머신러닝
7.woring with text data(epoch#2)
6.algorithm chains and piplines(epoch#2)
5.model evaluation and improvement(epoch#2) 2
5.model evaluation and improvement(epoch#2) 1
4.representing data and engineering features(epoch#2)
3.unsupervised learing(epoch#2)
2.supervised learning(epoch#2)-2
2.supervised learning(epoch#2)-1
2.supervised learning
1.introduction
기계도 학교에 가나요?

해커에게 전해들은 머신러닝 #3

Editor's Notes

  • #4: y 햇: h, f 등으로 쓰기도 함.
  • #5: 데이터 마이닝은 지식이나 인사이트를 얻는다. 머신러닝은 새로운 데이터를 처리하는 데 촛점을 맞추므로 어떻게 해결되었는 지 적절하게 설명하기 어려울 수 있다.
  • #6: 데이터 마이닝은 지식이나 인사이트를 얻는다. 머신러닝은 새로운 데이터를 처리하는 데 촛점을 맞추므로 어떻게 해결되었는 지 적절하게 설명하기 어려울 수 있다.
  • #7: 데이터 마이닝은 지식이나 인사이트를 얻는다. 머신러닝은 새로운 데이터를 처리하는 데 촛점을 맞추므로 어떻게 해결되었는 지 적절하게 설명하기 어려울 수 있다.
  • #8: 데이터 마이닝은 지식이나 인사이트를 얻는다. 머신러닝은 새로운 데이터를 처리하는 데 촛점을 맞추므로 어떻게 해결되었는 지 적절하게 설명하기 어려울 수 있다.
  • #9: 통계학의 알고리즘에 많이 의존함. 통계학적 머신러닝이라고 부르기도 함. 컴퓨터 과학에 좀 더 실용적 접근이 많음.
  • #10: 통계학의 알고리즘에 많이 의존함. 통계학적 머신러닝이라고 부르기도 함. 컴퓨터 과학에 좀 더 실용적 접근이 많음.
  • #11: 통계학의 알고리즘에 많이 의존함. 통계학적 머신러닝이라고 부르기도 함. 컴퓨터 과학에 좀 더 실용적 접근이 많음.
  • #12: 통계학의 알고리즘에 많이 의존함. 통계학적 머신러닝이라고 부르기도 함. 컴퓨터 과학에 좀 더 실용적 접근이 많음.
  • #14: AI는 언어학, 뇌의학, 검색, 로봇틱스 포함 아직 일반지능이 아님 딥러닝은 뉴럴 네트워크를 사용한 머신러닝
  • #15: AI는 언어학, 뇌의학, 검색, 로봇틱스 포함 아직 일반지능이 아님 딥러닝은 뉴럴 네트워크를 사용한 머신러닝
  • #20: y 햇: h, f 등으로 쓰기도 함.
  • #22: y 햇: h, f 등으로 쓰기도 함.
  • #59: y 햇: h, f 등으로 쓰기도 함.
  • #60: y 햇: h, f 등으로 쓰기도 함.
  • #61: y 햇: h, f 등으로 쓰기도 함.
  • #62: y 햇: h, f 등으로 쓰기도 함.
  • #63: y 햇: h, f 등으로 쓰기도 함.
  • #64: y 햇: h, f 등으로 쓰기도 함.
  • #66: y 햇: h, f 등으로 쓰기도 함.
  • #68: y 햇: h, f 등으로 쓰기도 함.
  • #73: y 햇: h, f 등으로 쓰기도 함.
  • #74: y 햇: h, f 등으로 쓰기도 함.
  • #75: y 햇: h, f 등으로 쓰기도 함.
  • #76: y 햇: h, f 등으로 쓰기도 함.
  • #79: 훈련데이터/학습데이터 지도학습: 주가예측, 스팸메일 분류 비지도학습: 고객 분류 딥 러닝은 알고리즘의 하나로 학습방법이 아님. 딥 리인포스먼트 러닝