Pythonによるディープラーニングの実装①

機械学習 機械学習

今回の記事では、Python でディープニューラルネットワークモデルを1から実装します。つまり、ニューラルネットワークの隠れ層の数を好きに弄れるモデル1を作ります。Python でニューラルネットワークを実装する記事の続きモノなので、とりあえず深いニューラルネットワークモデル(ディープニューラルネットワーク)を作ります。
ニューラルネットワークを知らない人はこちらの記事をどうぞ。

ニューラルネットワークの話
ニューラルネットワークについての小話です。計算グラフを用いて、ニューラルネットワークモデルを表します。分類問題をニューラルネットワークで解く実験もしています。
Pythonによるニューラルネットワークの実装①
ニューラルネットワークモデルをpython で1から作ります。この記事では、データを受け取って予測値を返す関数と、正解率を計算する関数を作成します。

記事に出てくる実装用のコードは以下の本を参考にしています。コードだけならネットで無料で見れるので、試してみてください。
https://github.com/oreilly-japan/deep-learning-from-scratch

ゼロから作るディープラーニング

記事で使っているソースコードはgithub に置いてあります。
https://github.com/msamunetogetoge

ディープニューラルネットワークとは

今回の記事でやりたいことを説明します。
ニューラルネットワークは入力層、隠れ層、出力層の3種類の層で出来ています。入力層は与えられたデータ形状から、大きさが決まっています。出力層も。予測したいデータの種類で大きさが決まっています。隠れ層だけが大きさを自由に変える事が出来ます。勿論、隠れ層を増やすことも出来ます。隠れ層が増えると、パラメーターの数が増えるので、モデルの表現力が”一応”高くなります。
理論的には、層の数と層のノードの数をそれぞれ決めてやれば勝手に行列やベクトルの大きさが決まるので、特にやることはありません。
python で実装という話になると、よく使う行列を掛けてベクトルを足す、という操作とその微分をクラスとして準備する必要があります。必要なパーツは全て前回までの記事にあるので、それをクラス化して、新たにクラスでまとめるだけです。
モデルとしては、出力にはsoftmax 関数を使い、誤差関数はクロスエントロピーを使います。2 また、活性化関数にはreluを使います。パラメーターの更新法は単純な勾配法です。

deep neyralnet
やること

ニューラルネットワークに登場する関数のクラス化

初めに、活性化関数に使うrelu と出力に使うsoftmax関数、損失関数をクラス化します。ある層A の勾配の計算は、連鎖律から (Aより出力側全体の勾配)×(A部分の勾配 ) となることに注意しましょう。なので、順方向にデータを流す場合はデータが入力として入ってきます。微分を考える時は、出力側から、勾配が入ってきます。 意味不明な場合は以下の記事をどうぞ。

計算グラフと関数の合成
機械学習を勉強する上で、計算グラフの概念を知っているとモデルの理解が楽になります。多クラス分類の問題を例に、微分の計算練習をしながら計算グラフを理解しましょう。
誤差逆伝搬法
誤差逆伝搬法の解説記事です。連鎖律と微分の定義を知ってれば当たり前だね~と納得できます。知らなくても何とかなります。

登場する関数をクラスとして保持するコードを書きます。 forward が関数を作用させる計算で、backwardが微分の計算です。


次に、行列を掛けてベクトルを足す操作をクラス化します。数学ではこのような操作はアファイン変換とか線形変換とか呼びます。クラス名の由来はそういう事です。コードを書きます。

これで必要な関数の準備が出来ました。次は、ニューラルネットワークモデルを作るクラスを書きます。

デイープニューラルネットワークの実装

作るクラスが持っていてほしい機能は、以下です。

  • アファイン変換でデータの形を順々に変える。
  • reluで活性化する。
  • softmax 関数予測値を得てる。
  • 誤差関数を計算 する。
  • 各層、パラメーターの勾配の計算をする。

欲しい機能を持ったクラスを作ります。

このコードのポイントは、勾配や予測値の計算をするには各関数の出力や微分 out , dout を代入していくだけという所です。勾配の計算を行う時は、OrderedDict の順番を逆向きにすることで連鎖律(誤差逆伝搬法)を再現しています。

ディープニューラルネットワークの学習

Sequential クラスでディープニューラルネットワークモデルを作り、FASHON MNIST のデータを学習させてみましょう。計算が重くなりすぎるのが嫌なので、隠れ層は2つにしておきます。

管理人の実行結果では、トレーニングデータで92%, テストデータで88%の正解率に至りました。
結果のグラフを描いてみます。

モデルの学習結果

グラフを見ると、過学習してる感じです。学習の回数を増やせば、トレーニングの方は正解率が上がりますが、テストの方は上がりません。隠れ層が一層だけの場合では、テスト用データの正答率が86%くらいだったので、一応良いモデルになっています。実際にデータを弄る時でも、単純に層を深くするだけでは、劇的に良いモデルになることは殆どありません。何故でしょうか?
それは、行列を掛けてベクトルを足すという単純な操作だけでは、画像データの特徴を捉えきることが出来ないためです。つまり、もっと複雑なモデルを作る必要があります。偉大な先人が色々考えてくれているので、次回は少しだけ複雑なモデルを実装してみます。

まとめ

・前回の記事の続きで、隠れ層を増やせるニューラルネットワークモデルを実装した。
・アファイン変換だけのモデルでは、画像という複雑な対象を説明しきる事は出来ない。

  1. 層を深くすればそれでディープラーニングはおしまいかと言われれば答えはNoです。
  2. softmax 関数とクロスエントロピーの組み合わせだと、微分の計算が簡単になるので使っています。
タイトルとURLをコピーしました