13章線形回帰

レシピ13.0 はじめに

 線形回帰は、我々が利用できるアルゴリズムのうち、最も単純な教師あり学習手法の1つだ。大学で統計学入門の授業を取っていたら、最後のトピックが線形回帰だったはずだ。線形回帰は単純すぎるので、機械学習だと認められない場合もある。しかし実際には、ターゲットベクトルが量的な値である場合(例:住宅価格、年齢)に予測を行う方法として、線形回帰とその拡張は、これまでもこれからもよく用いられる有用な手法なのだ。本章では、さまざまな線形回帰モデル(とその拡張)を用いて、性能の良い予測モデルを作る方法を説明する。

レシピ13.1 直線によるフィッティング

問題

 特徴量とターゲットベクトルの間の線形な関係を表すモデルを訓練したい。

解決策

 線形回帰(scikit-learnではLinearRegression)を用いる。

# ライブラリをロード
from sklearn.linear_model import LinearRegression
from sklearn.datasets import load_boston

# データをロードし、特徴量を2つに制限
boston = load_boston()
features = boston.data[:,0:2]
target = boston.target

# 線形回帰器を作成
regression = LinearRegression()

# 線形回帰器を訓練
model = regression.fit(features, target)

議論

 線形回帰は、特徴量とターゲットベクトルの間におおよそ線形の関係があることを仮定する。つまり、特徴量のターゲットベクトルに与える影響係数(coefficient)、 ...

Get Python機械学習クックブック now with the O’Reilly learning platform.

O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.