masamue

統計学

リッジ回帰分析

リッジ回帰の解説をします。重回帰分析にペナルティを課すモデルです。これによって、パラメーター全体が大きくなることが抑えられ、データ自体のバラツキを無視してくれるようになります。さよなら過学習。
Python R

勾配の更新に関する問題

シグモイド関数を活性化関数に使うと勾配消失問題が起こると巷で言われているので確かめてみます。勾配消失の解決策として、シグモイドでなくて、relu関数を使うと良いと言われますが、本当か検証します。 また、勾配爆発問題が起こる状況を再現し、解決策を解説します。
機械学習

ニューラルネットワークの話

本当にお話程度の事しか書かないとは思いませんでした。おすすめの本のリンクを貼っておきます。 マサムネも読んでいる定番です。数学の人には細部が書いてなかったり当たり前の事を長々と書いていたりで物足りないかもしれませ...
機械学習

誤差逆伝搬法

誤差逆伝搬法の解説記事です。連鎖律と微分の定義を知ってれば当たり前だね~と納得できます。知らなくても何とかなります。
機械学習

計算グラフと関数の合成

機械学習を勉強する上で、計算グラフの概念を知っているとモデルの理解が楽になります。多クラス分類の問題を例に、微分の計算練習をしながら計算グラフを理解しましょう。
統計学

ロジスティック回帰

予測したい値が連続値でなく、離散的な値だったり名前だったりすることがままあります。そのような問題を分類問題と言います。分類問題の手法を紹介します。 ロジスティック回帰とは ロジスティック回帰は説明変数から0か1を出力する手法で...
機械学習

微分と勾配

機械学習では誤差関数の勾配を頼りに最適なパラメーターを探します。その時にしている偏微分の計算の仕方と勾配のイメージを解説します。
統計学

重回帰分析(2変数)

説明変数が2つの場合の重回帰分析について解説します。計算を詳しく書いています。
統計学

単回帰分析

単回帰分析の解説をします。回帰係数の導出仮定、残差の自由度や、R^2 誤差について解説しています。
統計学

重回帰分析

変数が沢山ある場合の重回帰分析の解説をします。行列とベクトルを用いて式を書く事で、シンプルに結論までたどり着くことが出来ます。また、多重共線性という概念が自然に出てくることを見ます。
スポンサーリンク
タイトルとURLをコピーしました