サポートベクトルマシン

機械学習

汎化性能、表現力はトレードオフな事が分かる記事

機械学習で必ず直面する問題の一つに過学習があります。過学習は、表現力が高すぎる故に起こる現象です。汎化性能が表現力とトレードオフである事を説明し。汎化性能を高める方法を解説します。
カーネル法

サポートベクトルマシン➂(サポートベクトル回帰)

サポートベクトルマシンを回帰問題に使う時はサポートベクトル回帰と呼びます。サポートベクトル回帰の原理を解説をします。サポートベクトル回帰は過学習しにくい訳を原理から解き明かします。カーネル回帰と比べて、圧倒的に汎化性能が高い事を実験で確かめます。
カーネル法

サポートベクトルマシン➁(幾何学的意味)

サポートベクトルマシンの幾何学的意味を説明します。マージン最大化と言う原理と、誤差関数を最小化する事が同じである事を解説します。また、サポートベクトルマシンをカーネル化する事で、非線形なデータも分類できることを解説します。
カーネル法

サポートベクトルマシン入門

サポートベクトルマシンの原理を解説します。サポートベクトルマシンの導出から始めて、サポートベクトルの意味について解説します。また、サポートベクトルマシンの持つスパース性についても解説します。
タイトルとURLをコピーしました