機械学習 汎化性能、表現力はトレードオフな事が分かる記事 機械学習で必ず直面する問題の一つに過学習があります。過学習は、表現力が高すぎる故に起こる現象です。汎化性能が表現力とトレードオフである事を説明し。汎化性能を高める方法を解説します。 2019.07.12 機械学習計算
カーネル法 サポートベクトルマシン➂(サポートベクトル回帰) サポートベクトルマシンを回帰問題に使う時はサポートベクトル回帰と呼びます。サポートベクトル回帰の原理を解説をします。サポートベクトル回帰は過学習しにくい訳を原理から解き明かします。カーネル回帰と比べて、圧倒的に汎化性能が高い事を実験で確かめます。 2019.07.11 カーネル法機械学習
カーネル法 サポートベクトルマシン➁(幾何学的意味) サポートベクトルマシンの幾何学的意味を説明します。マージン最大化と言う原理と、誤差関数を最小化する事が同じである事を解説します。また、サポートベクトルマシンをカーネル化する事で、非線形なデータも分類できることを解説します。 2019.07.09 カーネル法機械学習
カーネル法 サポートベクトルマシン入門 サポートベクトルマシンの原理を解説します。サポートベクトルマシンの導出から始めて、サポートベクトルの意味について解説します。また、サポートベクトルマシンの持つスパース性についても解説します。 2019.07.08 カーネル法機械学習