機械学習

Python R

差分法と偏微分方程式

差分法を使えば、偏微分方程式だって解けますが、何も考えずに解くと痛い目を見ます。痛い目を見て、原因を考えようという記事です。
Python R

Validation Loss <Train Loss問題への解答

械学習モデルを組んだ時、モデルの良し悪しは、トレーニングデータへの適合(train loss)とテストデータへの適合(validation loss)の差が良い指標になります。その時、Validation Loss <Train Loss となった経験はないでしょうか。 その原因を紹介します。
ベイズ統計学

平均場近似(機械学習)

物理学科の人間は良く平均場近似を使います。機械学習でも全く同じ手法があります。機械学習で使う平均場近似を解説します。簡単な例で計算もしてみます。計算すると、変数間の相互作用を無視して平均されているのが分かります。
Python R

データの前処理

python でアプリを作った際に使用した前処理の手法をまとめています。基本的にはone hot encodingです。
Python R

ゼロから作るRNN2

PTBコーパスから言語モデルを作る記事です。分散表現を作り、RNNに通して全結合で予測するという単純なモデルです。単語の分散表現が得られるので、意味のあるものになっているか、コサイン類似度を使って試してみます。
Python R

ゼロから作るRNN1

RNNをnumpy だけで実装していきます。ゼロから作るDeep Learning 2に載っているコードを解説しながら作っていきます。
ベイズ統計学

EMアルゴリズムの一般化と計算例

EMアルゴリズムを色々な確率分布に対して使えるようにします。正規分布とベルヌーイ分布の場合で、EMアルゴリズムを実装するための計算をします。
Python R

EMアルゴリズムのpythonによる実装と一般化

EMアルゴリズムのまとめをして、python 上で実装します。最後に、EMアルゴリズムの一般化について触れます。
機械学習

EMアルゴリズム

扱うデータが複数の分布を持っていそうな時、分布の混合割合と、パラメーターを推定する方法があります。それはEMアルゴリズムと呼ばれています。EMアルゴリズムの原理について解説します。
ベイズ統計学

エントロピーからKLダイバージェンスを理解する

エントロピーの定義から始めて、KLダイバージェンスの意味を理解するのが目標です。エントロピーがデータの分布の違いを検知できる事を説明し、KLダイバージェンスが確率分布同士の距離を測る道具になっていることを解説します。最後に応用について少しだけ説明します。
タイトルとURLをコピーしました