カジュアル勉強会 @仙台
Excelで機械学習入門 第5回
株式会社 エクテック
データサイエンティスト
第10回までの流れ
1回~3回 4回~10回
AI周辺の
基本知識
最適化の基本
推論の基本
重回帰分析
機械学習
サポートベクタマシン
ナイーブベイズ
ニューラルネットワーク
RNN/BPTT
強化学習/Q学習
環境について
(Surroundings)
Excel 2013, 2016
Google Spreadsheets
本日のアジェンダ
1. ニューラルネットワークの基本単位とユニット
2. ユニットを層状に並べたニューラルネットワーク
ニューラルネットワークの
基本単位とユニット
以前ちょっと話したかもですが...
Casual learning machine learning with_excel_no5
ニューラルネットワーク
『シナプスの結合によりネットワークを形成した
⼈⼯ニューロン(ノード)が、学習によって
シナプスの結合強度を変化させ、
問題解決能⼒を持つようなモデル全般を指す。
狭義には誤差逆伝播法を⽤いた多層パーセプトロンを
指す場合もある。⼀般的なニューラルネットワークでの
⼈⼯ニューロンは⽣体のニューロンの動作を極めて
簡易化したものを利⽤する。』
(Wikipediaより)
⼈の脳を模した、
数理学に基づいた機械的な処理
『⼈の脳を模し』た
Casual learning machine learning with_excel_no5
これら⼀つ⼀つが、ニューロン(⼈⼯ニューロン)
これら⼀つ⼀つが、ユニット(ノード)
x1
x2
x3
y
出⼒
⼊⼒
ユニット, ノード,
ニューロン, ⼈⼯ニューロン
x1
x2
x3
y
出⼒
⼊⼒
w1
w2
w3
重み
θ
閾値
x1
x2
x3
y
出⼒
⼊⼒
w1
w2
w3
重み
⼊⼒信号x1, x2, x3に対してsum
s = w1x1 + w2x2 + w3x3 + θ
閾値
θ
閾値重み
⼊⼒信号x1, x2, x3に対してsum
s = w1x1 + w2x2 + w3x3 + θ
これら重みや閾値は
そのユニットの固有の値
x1
x2
xn
y
出⼒
⼊⼒
w1
w2
wn
重み
n個の⼊⼒信号x1, x2, … , xn があれば
s = w1x1 + w2x2 + … + wnxn + θ
閾値
θ
……
sに対して、出⼒値 yは...
n個の⼊⼒信号x1, x2, … , xn があれば
s = w1x1 + w2x2 + … + wnxn + θ
y = a(s)
sに対して、出⼒値 yは...
n個の⼊⼒信号x1, x2, … , xn があれば
s = w1x1 + w2x2 + … + wnxn + θ
y = a(s)
活性化関数
(activation function)
σ(s) =
1
1 + e -s
ロジスティック関数
σ(s) =
1
1 + e -s
tanh(s) =
e - e
e + e-ss
-ss
ハイパボリックタンジェント
ロジスティック関数
ロジスティック関数
σ(s) =
1
1 + e -s
tanh(s) =
e - e
e + e-ss
-ss
ハイパボリックタンジェント
シグモイド関数
s < 0 のとき ReLU(s)=0
s ≧ 0 のとき ReLU(s)=s
σ(s) =
1
1 + e -s
tanh(s) =
e - e
e + e-ss
-ss
ハイパボリックタンジェント
シグモイド関数
s < 0 のとき ReLU(s)=0
s ≧ 0 のとき ReLU(s)=s
活性化関数の代表例
ロジスティック関数
3つの関数を⽐較すると
こんな感じになります
ロジスティック関数は
⽣物の神経細胞が持つ
性質をモデル化したもの
⾼等⽣物の神経細胞では、
情報は電気的パルスの時間密度によって
表現され、細胞間でやりとりされます。
この時間密度は最⼩値が0、
電気化学的な制約で
決まる上限を最⼤値としています
ハイパボリックタンジェント
双曲線正接関数
ロジスティック関数と同様の性質
が、値域が[-1,1]になり
より滑らかな関数となっていて
収束がロジスティックより速い
(計算が速く処理できる)
ロジスティック関数と総称して
シグモイド関数と呼ぶ
ReLU関数は
rectified linear function
単純で計算量が⼩さく、
他の関数よりも学習が
より速く進み、最終的に
より良い関数が得られやすい
シグモイド関数を活性化関数とする下図のような
ユニットを考えます。⼊⼒x1, x2に対して、
重みを順にw1, w2とします。また、閾値をθ
とします。このとき、出⼒yは次のように算出
されます。
s = w1x1 + w2x2 + θ
y = σ(s) =
1
1 + e -s
x1
x2
y
w1
w2
θ
x1
x2
y
w1
w2
θ
ユニットは
ネットワークを作っています
x1
x2
y
w1
w2
θ ユニット同⼠の連携の強さ
『重み』
情報伝達のための
パイプの太さといったイメージ
太いほど情報が伝わりやすい
(これは重みが、正の場合)
x1
x2
y
w1
w2
θ 細胞固有の感度を表す
『閾値』
閾値が⼩さければ、反応は早い
閾値が⼤きければ、反応は鈍い
x1
x2
y
w1
w2
θ 細胞固有の感度を表す
『閾値』
これが意味するところは、
システムの安定度合いを⽰しています。
ノイズのような⼩さな⼊⼒に対して、
いちいち反応すると、システムは不安定になってしまいますよね
x1
x2
y
w1
w2
θ 出⼒は、
”興奮度”をイメージ。
⼊⼒に対して、どれほど”興奮”したか
出⼒が⼤きければ、⼊⼒に対して”興奮”を
出⼒が⼩さければ、⼊⼒に対して”無視”を
Excelでは
“SUMPRODUCT”関数を利⽤します
ユニットを層状に並べた
ニューラルネットワーク
これらユニットを層状にしたもの
ニューラルネットワーク
『⼊⼒層』, 『隠れ層』, 『出⼒層』
が基本の構成
具体例で、考えてみましょう
4 ✖ 3 画素の⽩⿊2値画像として読み取った
「0」,「1」の⼿書き⽂字画像を識別する
ニューラルネットワークを作成します。
3 ✖ 4画素
画像
x1
x2
x3
x4
x5
x6
x7
x8
x9
x10
x11
x12
⼊⼒層
(Input layer)
x1
x2
x3
x4
x5
x6
x7
x8
x9
x10
x11
x12
隠れ層※中間層ともいう
(Hidden layer)
H1
H2
H3
x1
x2
x3
x4
x5
x6
x7
x8
x9
x10
x11
x12
H1
H2
H3
出⼒層
(Output layer)
Z1
Z2
0 1 1
1 0 1
1 0 1
1 1 0
0 1 1
1 0 1
1 0 1
0 1 1
0 1 0
0 1 0
0 1 0
0 1 0
1 1 0
0 1 0
0 1 0
0 1 0
3 ✖ 4画素でも “0”, “1”の2値でも
「0」, 「1」を表現できる
ここからややこしくなるので
記号を整理します
Xi Hj Zk
隠れ層
(Hidden layer)
⼊⼒層
(Input layer)
出⼒層
(Output layer)
i は⼊⼒層の中の
上からの位置を
⽰すとする
j は隠れ層の中の
上からの位置を
⽰すとする
k は出⼒層の中の
上からの位置を
⽰すとする
Hj
Zk
Xi ユニットXi の出⼒xi
ユニットHj の出⼒hj
ユニットZkの出⼒zk
⼤⽂字は、ユニット名を
⼩⽂字は、ユニットの出⼒変数を表すことにします
sj
隠れ層
(Hidden layer)
j番⽬のニューロン
出⼒層
(Output layer)
k番⽬のニューロン
⼊⼒の
線形和
H
θj
H
wji
H
⼊⼒層 i番⽬の
ニューロン
sk
⼊⼒の
線形和
O
θk
O
wkj
O
隠れ層 j番⽬の
ニューロン
i Xi
Hj
Zk
i番⽬の
ニューロン
(i=1,2,...,12)
j番⽬の
ニューロン
(j=1,2,3)
k番⽬の
ニューロン
(k=1,2)
wji
H
wkj
O
隠れ層
(Hidden layer)
出⼒層
(Output layer)
⼊⼒層
(Input layer)
ここからネットワークを
式で表現してみましょう
x1
x2
x3
x12
H1
H2
H3
w11
w12
w13
H
H
H
w1 12
H
閾値θ1
H
s1 = w11x1 + w12x2 + … + w112x12 + θ1
H H H H H
s2 = w21x1 + w22x2 + … + w212x12 + θ2
H H H H H
s3 = w31x1 + w32x2 + … + w312x12 + θ3
H H H H H
h1 = a(S1)
H
h2 = a(S2)
H
h3 = a(S3)
H
ここで a は活性化関数
H1
H2
H3
Z1
Z2
w11
O
w12
O
w13
O
閾値θ1
O
s1 = w11h1 + w12h2 +w13h3 + θ1
O O O
z1 = a(S1)
H
z2 = a(S2)
H
ここで a は活性化関数
(ここでは便宜上活性化関数を同⼀としていますが、
絶対同⼀である必要はありません)
s2 = w21h1 + w22h2 +w23h3 + θ2
O
O O O O O
O
ニューラルネットワーク
出⼒の意味
x1
x2
x3
x4
x5
x6
x7
x8
x9
x10
x11
x12
H1
H2
H3
Z1
Z2
1
0
画像
「0」 「0」に
反応
「1」に
反応
ニューラルネットワークの出⼒層には
2つのユニット, Z1, Z2があり
Z1は「0」, Z2は「1」を検出する
という意図がある
ここで、⼤事なことは
Z1
Z2
1
0
「0」に
反応
「1」に
反応
数字「0」が読み込まれたとき
ユニットZ1の出⼒z1と1との差が
⼩さければ⼩さいほど
Z1
Z2
1
0
「0」に
反応
「1」に
反応
数字「0」が読み込まれたとき
ユニットZ2の出⼒z2と0との差が
⼩さければ⼩さいほど
Z1
Z2
1
0
「0」に
反応
「1」に
反応
このニューラルネットワークは
良い結果を出します
(画像「0」が「0」であるかどうか
True→1, False→0 と⼀般的に考えます)
Z1
Z2
1
0
出⼒層
画像
「0」
計算
z1
z2
出⼒ 理想値
出⼒の誤差の評価として
数字「0」が読まれたとき: e = {(1-z1) + (0-z2) }
2 2
Z1
Z2
0
1
出⼒層
画像
「1」
計算
z1
z2
出⼒ 理想値
出⼒の誤差の評価として
数字「1」が読まれたとき: e = {(0-z1) + (1-z2) }
2 2
これら誤差が⼩さいこと
精度が⾼いということ
0 1画像 画像
Z1
Z2 Z1
Z2
e = {(0-z1) + (1-z2) }e = {(1-z1) + (0-z2) }
2 22 2
重みと閾値の決め⽅と⽬的関数
ニューラルネットワークの
重みと閾値はどのように決まるのか
ネット⾃らが学習する
というアイデア
ニューラルネットワークに
1枚1枚の画像を読み込ませ
出⼒値を計算させて
1枚1枚の画像に紐づけられた
正解(訓練データ)との平⽅誤差を算出
訓練データすべてにおいて
平⽅誤差を求め、それらの総和を算出
総和が最⼩になるように繰り返す
ニューラルネットワークの原理
このときの誤差の総和が
⽬的関数となり、最⼩化=最適化
していく
ニューラルネットワークが
⾃ら学習する
ニューラルネットワークを
多層にして学習させることを
ディープラーニング(深層学習)という
次回、誤差逆伝搬法を⾒ていきます
Appendix
ti (i=1,2,..,6) に対して
L = (a + b ) + μ1{1 - t1(ax1 + by1 + c)} +
μ2{1 - t2(ax2 + by2 + c)} + … +
μ6{1 - t6(ax6 + by6 + c)}
について、a, b, cの最⼩値を求める。
これは、得られるμ1, μ2, … , μ6の式について
その最⼤値を求める。
μ1, μ2, … , μ6 >0
余⼒のある⽅は、復習ついでに
⾃⼒で解いてみてください...!
(次回、第5回のAppendixに解答を差し込みます)
ヒント!
δL
δa
= 0,
δL
δb
= 0,
δL
δc
= 0①
② a, bの関係式を求める
③ t, μの関係式を求める
④ L についてt, μ, x, yで表現する
δL
δa
= a - μ1t1x1 - μ2t2x2 - … - μ6t6x6 = 0
δL
δb
= b - μ1t1y1 - μ2t2y2 - … - μ6t6y6 = 0
δL
δc
= - μ1t1 - μ2t2 - … - μ6t6 = 0
a = μ1t1x1 + μ2t2x2 + … + μ6t6x6
b = μ1t1y1 + μ2t2y2 + … + μ6t6y6
上記の式から...
μ1t1 + μ2t2 + … + μ6t6 = 0
μ1t1 + μ2t2 + … + μ6t6 = 0
この式を
L = (a + b ) + μ1{1 - t1(ax1 + by1 + c)} +
μ2{1 - t2(ax2 + by2 + c)} + … +
μ6{1 - t6(ax6 + by6 + c)}
に代⼊して整理すると
L = - 1/2(a + b ) + (μ1 + μ2 + … + μ6)
となる
2 2
ここで
a = μ1t1x1 + μ2t2x2 + … + μ6t6x6
b = μ1t1y1 + μ2t2y2 + … + μ6t6y6
であるから
a , b はそれぞれ
2 2
a = (μ1t1x1 + μ2t2x2 + … + μ6t6x6)
=μ1t1x1μ1t1x1 + μ2t2x2 μ1t1x1+ …
+ μ6t6x6μ6t6x6
b = (μ1t1y1 + μ2t2y2 + … + μ6t6y6)
=μ1t1y1μ1t1y1 + μ2t2y2μ1t1y1 +…
+ μ6t6y6μ6t6y6
22
2 2
Lを, xi, yi, ti, μi だけの式で表せば
L = - 1/2{μ1μ1t1t1(x1x1+y1y1 )+
μ1μ2t1t2(x1x2+y1y2 )+
μ1μ3t1t3(x1x3+y1y3 )+
…+μ6μ6t6t6(x6x6+y6y6 )}
+ (μ1 + μ2 + … + μ6)
条件式
L = - 1/2{μ1μ1t1t1(x1x1+y1y1 )+
μ1μ2t1t2(x1x2+y1y2 )+
μ1μ3t1t3(x1x3+y1y3 )+
…+μ6μ6t6t6(x6x6+y6y6 )}
+ (μ1 + μ2 + … + μ6)
μ1t1 + μ2t2 + … + μ6t6 = 0 のもと
の最⼤値を求めれば良い
※これがExcelシート上の計算となっている
EoF

More Related Content

PDF
Casual learning machine learning with_excel_no2
PDF
Casual learning machine learning with_excel_no4
PDF
Casual learning machine learning with_excel_no3
PDF
Casual learning machine_learning_with_excel_no7
PDF
Casual learning machine learning with_excel_no6
PDF
Casual learning-machinelearningwithexcelno8
PDF
130604 fpgax kibayos
PDF
はじめてのパターン認識輪読会 10章後半
Casual learning machine learning with_excel_no2
Casual learning machine learning with_excel_no4
Casual learning machine learning with_excel_no3
Casual learning machine_learning_with_excel_no7
Casual learning machine learning with_excel_no6
Casual learning-machinelearningwithexcelno8
130604 fpgax kibayos
はじめてのパターン認識輪読会 10章後半

What's hot (20)

PDF
第8章 ガウス過程回帰による異常検知
PDF
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
PDF
Clustering _ishii_2014__ch10
PDF
2値分類・多クラス分類
PDF
混合ガウスモデルとEMアルゴリスム
PDF
「トピックモデルによる統計的潜在意味解析」読書会 2章前半
PDF
パターン認識と機械学習6章(カーネル法)
PDF
パターン認識第9章 学習ベクトル量子化
PDF
深層学習と確率プログラミングを融合したEdwardについて
PDF
20170422 数学カフェ Part1
PDF
20170408cvsaisentan6 2 4.3-4.5
PDF
第2回 配信講義 計算科学技術特論B(2022)
PDF
Oshasta em
PDF
線形識別モデル
PDF
Prml sec6
PDF
Fisher Vectorによる画像認識
PDF
第5章 拡張モデル(前半)
PDF
Objectnessとその周辺技術
PDF
グラフニューラルネットワーク入門
PDF
Donutsプロコンチャレンジ 2015 解説
第8章 ガウス過程回帰による異常検知
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
Clustering _ishii_2014__ch10
2値分類・多クラス分類
混合ガウスモデルとEMアルゴリスム
「トピックモデルによる統計的潜在意味解析」読書会 2章前半
パターン認識と機械学習6章(カーネル法)
パターン認識第9章 学習ベクトル量子化
深層学習と確率プログラミングを融合したEdwardについて
20170422 数学カフェ Part1
20170408cvsaisentan6 2 4.3-4.5
第2回 配信講義 計算科学技術特論B(2022)
Oshasta em
線形識別モデル
Prml sec6
Fisher Vectorによる画像認識
第5章 拡張モデル(前半)
Objectnessとその周辺技術
グラフニューラルネットワーク入門
Donutsプロコンチャレンジ 2015 解説
Ad

Similar to Casual learning machine learning with_excel_no5 (20)

PDF
第2回 メドレー読書会
PDF
深層学習(講談社)のまとめ(1章~2章)
PDF
PDF
20150803.山口大学集中講義
PPTX
Neural Network + Tensorflow 入門講座
PPTX
Deep learning chapter4 ,5
PDF
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
PDF
PRML復々習レーン#9 前回までのあらすじ
PDF
A yet another brief introduction to neural networks
PPTX
深層学習とTensorFlow入門
DOCX
深層学習 Day1レポート
PPTX
卒研発表 バースカ(確認済み)
PDF
PRML_from5.1to5.3.1
PDF
Crfと素性テンプレート
PDF
20150310 第1回 ディープラーニング勉強会
PPTX
PRML Chapter 5
PDF
03_深層学習
PDF
それっぽく感じる機械学習
PPTX
The review of 'Explaining nonlinear classification decisions with deep Taylor...
PPTX
大気環境研究における機械学習の活用について
第2回 メドレー読書会
深層学習(講談社)のまとめ(1章~2章)
20150803.山口大学集中講義
Neural Network + Tensorflow 入門講座
Deep learning chapter4 ,5
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
PRML復々習レーン#9 前回までのあらすじ
A yet another brief introduction to neural networks
深層学習とTensorFlow入門
深層学習 Day1レポート
卒研発表 バースカ(確認済み)
PRML_from5.1to5.3.1
Crfと素性テンプレート
20150310 第1回 ディープラーニング勉強会
PRML Chapter 5
03_深層学習
それっぽく感じる機械学習
The review of 'Explaining nonlinear classification decisions with deep Taylor...
大気環境研究における機械学習の活用について
Ad

More from KazuhiroSato8 (12)

PDF
Casual learning anomaly_detection_with_machine_learning_no1
PDF
Casual data analysis_with_python_vol2
PDF
Casual datascience vol5
PDF
Basic deep learning_framework
PDF
Casual learning machine_learning_with_excel_no1
PDF
エクテック カジュアル勉強会 データサイエンスを学ぶ第2回
PDF
エクテック カジュアル勉強会 データサイエンスを学ぶ第1回
PDF
Casual data analysis_with_python_vol1
PDF
Casual datascience vol4
PDF
Casual datascience vol3
PDF
Casual datascience vol2
PDF
Casual datascience vol1
Casual learning anomaly_detection_with_machine_learning_no1
Casual data analysis_with_python_vol2
Casual datascience vol5
Basic deep learning_framework
Casual learning machine_learning_with_excel_no1
エクテック カジュアル勉強会 データサイエンスを学ぶ第2回
エクテック カジュアル勉強会 データサイエンスを学ぶ第1回
Casual data analysis_with_python_vol1
Casual datascience vol4
Casual datascience vol3
Casual datascience vol2
Casual datascience vol1

Recently uploaded (20)

PDF
12_「家族とは何か」星の杜中学校小倉ももこ『家族ってなに』inspirehigh.pdf
PDF
3_「本当の『悪者』って何?」鷗友学園女子中学校_福島 雪乃さんinspirehigh.pdf
PDF
英単語学習の定番『キクタン』に収録された例文を、視覚的に理解できるよう イラスト化
PDF
共同売店から考える沖縄の新しい流通のしくみ2025琉球大学流通原論講義資料.pdf
PDF
My Inspire High Award 2024(岡田秀幸).pptx.pdf
PDF
9_前田音葉さん:「Yakushima Islandってなんか変じゃない?」.pdf
PDF
5_「AIと仲良くなるには?」日本大学東北高等学校南梨夢乃さんinspirehigh.pdf
PDF
Coordination Compounds.pdf class 12 cbse
PDF
8_「世の中の流行はどのようにして生まれるのか」学校法人聖ドミニコ学園竹野はるいpptx.pdf
PDF
13_「他者と自分、対立を防ぐには?」市原中央高等学校 大野リリinspirehigh.pdf
PDF
「なぜ、好きなことにいつかは飽きるの?」大塚莉子 - My Inspire High Award 2024.pdf
PDF
10_「孤独は敵なのか?」 桜花学園高等学校堀川愛可さんinspirehigh.pdf
PDF
12_星の杜中学校小倉ももこ『家族ってなに』inspirehigh発表物.pdf
PDF
14_「スーパーマーケットで回収されたキャベツ外葉は廃棄されているの?」公文国際学園高等部古澤琴子.pdf
PDF
7_「なぜ人は他人と違うところがあってもそれをなかなか誇れないのか?」明治大学付属中野八王子中学校宮本ゆりかさん.pdf
PDF
外国人が日本のテーブルマナーに驚く理由は?_公文国際学園高等部 角田 恵梨佳さん
PPTX
PPT KANJI IRODORI SHOKYUU 1 BAB 9 (FURIGANA)
PDF
中学受験新演習 算数4年上 ポンチ絵解説資料
PDF
6_「老いることは不幸なこと?」植草学園大学附属高等学校森 珠貴さんinspirehigh.pdf
PDF
11_「なぜ議会への関心が低いのか?」長野県長野西高等学校 片桐 菜々美さん.pdf
12_「家族とは何か」星の杜中学校小倉ももこ『家族ってなに』inspirehigh.pdf
3_「本当の『悪者』って何?」鷗友学園女子中学校_福島 雪乃さんinspirehigh.pdf
英単語学習の定番『キクタン』に収録された例文を、視覚的に理解できるよう イラスト化
共同売店から考える沖縄の新しい流通のしくみ2025琉球大学流通原論講義資料.pdf
My Inspire High Award 2024(岡田秀幸).pptx.pdf
9_前田音葉さん:「Yakushima Islandってなんか変じゃない?」.pdf
5_「AIと仲良くなるには?」日本大学東北高等学校南梨夢乃さんinspirehigh.pdf
Coordination Compounds.pdf class 12 cbse
8_「世の中の流行はどのようにして生まれるのか」学校法人聖ドミニコ学園竹野はるいpptx.pdf
13_「他者と自分、対立を防ぐには?」市原中央高等学校 大野リリinspirehigh.pdf
「なぜ、好きなことにいつかは飽きるの?」大塚莉子 - My Inspire High Award 2024.pdf
10_「孤独は敵なのか?」 桜花学園高等学校堀川愛可さんinspirehigh.pdf
12_星の杜中学校小倉ももこ『家族ってなに』inspirehigh発表物.pdf
14_「スーパーマーケットで回収されたキャベツ外葉は廃棄されているの?」公文国際学園高等部古澤琴子.pdf
7_「なぜ人は他人と違うところがあってもそれをなかなか誇れないのか?」明治大学付属中野八王子中学校宮本ゆりかさん.pdf
外国人が日本のテーブルマナーに驚く理由は?_公文国際学園高等部 角田 恵梨佳さん
PPT KANJI IRODORI SHOKYUU 1 BAB 9 (FURIGANA)
中学受験新演習 算数4年上 ポンチ絵解説資料
6_「老いることは不幸なこと?」植草学園大学附属高等学校森 珠貴さんinspirehigh.pdf
11_「なぜ議会への関心が低いのか?」長野県長野西高等学校 片桐 菜々美さん.pdf

Casual learning machine learning with_excel_no5