回帰分析
線形回帰の例 回帰(かいき、)とは、統計学において、Y が連続値の時にデータに Y.
重回帰分析
重回帰分析(じゅうかいきぶんせき)は、多変量解析の一つ。回帰分析において独立変数が2つ以上(2次元以上)のもの。独立変数が1つのものを単回帰分析という。 一般的によく使われている最小二乗法、一般化線形モデルの重回帰は、数学的には線形分析の一種であり、分散分析などと数学的に類似している。適切な変数を複数選択することで、計算しやすく誤差の少ない予測式を作ることができる。重回帰モデルの各説明変数の係数を偏回帰係数という。目的変数への影響度は偏回帰係数は示さないが標準化偏回帰係数は目的係数への影響度を示す。下記の関係式が知られている。 SPRC.
新しい!!: 決定係数と重回帰分析 · 続きを見る »
残差平方和
統計学において、残差平方和(ざんさへいほうわ、residual sum of squares, RSS)は、残差の平方(二乗)の和である。残差二乗和、SSR(sum of squared residuals)やSSE(sum of squared errors of prediction)とも呼ばれる。残差平方和はデータと推定モデルとの間の不一致を評価する尺度である。小さいRSSの値はデータに対してモデルがぴったりとフィットしていること示している。 一般的に、総平方和.
新しい!!: 決定係数と残差平方和 · 続きを見る »
最小二乗法
データセットを4次関数で最小二乗近似した例 最小二乗法(さいしょうにじょうほう、さいしょうじじょうほう;最小自乗法とも書く、)は、測定で得られた数値の組を、適当なモデルから想定される1次関数、対数曲線など特定の関数を用いて近似するときに、想定する関数が測定値に対してよい近似となるように、残差の二乗和を最小とするような係数を決定する方法、あるいはそのような方法によって近似を行うことである。.
新しい!!: 決定係数と最小二乗法 · 続きを見る »