ベイズ統計学

ベイズ線形回帰

ベイズの定理を用いて回帰分析を行います。ベイズの定理を使うと、予測値がどれくらい信頼できるかまで分かるので、データによっては積極的に使っていきたい代物でです。
機械学習

汎化性能、表現力はトレードオフな事が分かる記事

機械学習で必ず直面する問題の一つに過学習があります。過学習は、表現力が高すぎる故に起こる現象です。汎化性能が表現力とトレードオフである事を説明し。汎化性能を高める方法を解説します。
カーネル法

サポートベクトルマシン➂(サポートベクトル回帰)

サポートベクトルマシンを回帰問題に使う時はサポートベクトル回帰と呼びます。サポートベクトル回帰の原理を解説をします。サポートベクトル回帰は過学習しにくい訳を原理から解き明かします。カーネル回帰と比べて、圧倒的に汎化性能が高い事を実験で確かめます。
カーネル法

サポートベクトルマシン➁(幾何学的意味)

サポートベクトルマシンの幾何学的意味を説明します。マージン最大化と言う原理と、誤差関数を最小化する事が同じである事を解説します。また、サポートベクトルマシンをカーネル化する事で、非線形なデータも分類できることを解説します。
カーネル法

サポートベクトルマシン入門

サポートベクトルマシンの原理を解説します。サポートベクトルマシンの導出から始めて、サポートベクトルの意味について解説します。また、サポートベクトルマシンの持つスパース性についても解説します。
カーネル法

カーネルの正体

カーネル法では、カーネルという魔法の道具と、カーネルトリックという技でモデルの表現力を劇的に上げる事が出来ます。しかし、カーネルとは一体何なのでしょうか。その疑問を正定値性、再生核ヒルベルト空間という概念で解決します
統計学

多次元正規分布の性質

多次元正規分布の定義の平均値や分散を計算します。最尤推定によって得られた平均値や分散が、不偏推定量になっているか確かめます。その結果をもとに、多次元正規分布が正規分布の拡張になっている事を確かめます。
カーネル法

カーネル化

既存手法をカーネル法で扱う術について解説します。この記事の中ではカーネル化と呼びます。使うカーネルを決めるだけで、モデルの表現力を向上させることが出来ます。いくつかの例で実践してみます。
Python R

Google Colab によるpython環境構築

機械学習を始めるにあたって、環境を作るのが第一の壁になります。既に作られたライブラリが沢山あるので、python がオススメです。Google が提供するサービスを使うことで、python 環境が簡単に作れます。さらに、性能の良いパソコンを計算に使うことが出来るようになります。
統計学

Fisher情報量(Fisher情報行列)

Fisher 情報量(Fisher 情報行列)の定義と、その役割について解説します。統計量の推定をした時、推定量の分散の大きさについての情報を与えてくれるのがFisher 情報量(Fisher 情報行列)です。
タイトルとURLをコピーしました