回帰分析の原理や計算方法について解説しています。回帰分析は、連続値を予測する手法です。
            機械学習    回帰分析の概要
        
理論的な話は置いておいて、どんな事が出来るのかを淡々と綴っていくシリーズです。回帰分析の理論的な話については、記事がいくつかあります。
単回帰分析重回帰分析ベイズ線形回帰
回帰分析とは
連続的な量y と、それと関係があり...      
                        
    
            統計学    回帰分析が分散分析を再現する話
        大量の平均値を比べるには、t検定は危険をはらみます。平均値を比べて因子の効果を説明する手法として、変動の分解を元にした分散分析という手法があります。実は、回帰分析の特別な場合として捉える事を、分散分析と回帰分析と一緒に説明します。      
                        
    
            統計学    最尤法って何?
        
統計学でも機械学習でも、必須の手法が最尤法です。尤度を最大にするのが最尤法ですが、案外教科書でも変な説明をしていたりします。この記事では、尤度と最尤法について説明します。
得られたデータを活用したい
このご時世、データドリブン...      
                        
    
            Python R    特徴量の評価方法をまとめてみた
        機械学習の困りごとの一つとして、結果の解釈が難しいという事があります。しかし、特徴量の重要度を評価する手法は色々あります。この記事で紹介する手法で、大体のモデルに対応できます。      
                        
    
            カーネル法    サポートベクトルマシン➂(サポートベクトル回帰)
        サポートベクトルマシンを回帰問題に使う時はサポートベクトル回帰と呼びます。サポートベクトル回帰の原理を解説をします。サポートベクトル回帰は過学習しにくい訳を原理から解き明かします。カーネル回帰と比べて、圧倒的に汎化性能が高い事を実験で確かめます。      
                        
    
            カーネル法    カーネル法入門
        カーネル法の入門記事です。カーネル法を使うメリットデメリットを、回帰分析、カーネル回帰、カーネルリッジ回帰を例に出して簡単に、分かりやすく解説します。。      
                        
    
            統計学    回帰分析と正規分布
        パラメーターが正規分布に従っていると仮定して、最尤法から回帰分析を導きます。リッジ回帰も同じような手法で導くことが出来る事を説明します。      
                        
    
            統計学    リッジ回帰分析
        リッジ回帰の解説をします。重回帰分析にペナルティを課すモデルです。これによって、パラメーター全体が大きくなることが抑えられ、データ自体のバラツキを無視してくれるようになります。さよなら過学習。      
                        
    
            機械学習    ニューラルネットワークの話
        
本当にお話程度の事しか書かないとは思いませんでした。おすすめの本のリンクを貼っておきます。
    
 マサムネも読んでいる定番です。数学の人には細部が書いてなかったり当たり前の事を長々と書いていたりで物足りないかもしれませ...      
                        
    
            統計学    重回帰分析(2変数)
        説明変数が2つの場合の重回帰分析について解説します。計算を詳しく書いています。