
9.8 さらなる探求のために 275
しか
し、「はず」は必ずしもその通りになるとは限らない。これらの分類器はすべて独立に訓練されてい
るが、これらの合計が T = 1 になるように強制するものはどこにもない。
解決するためには、これらすべての確率を適切な定数で割れば良い。つまり F
′
(x) = F (x)/T である。こ
こで分配関数とは分母に現れる、規格化されていない確率を規格化するためのものだ。
多項ロジスティック回帰は、1 つのクラスとその他すべてを分類する独立した分類器をもっと原則的な方
法で訓練して正しい確率が得られるようにする。多項ロジスティック回帰では、対数オッズ比のための正し
い分配関数が使われる。対数オッズ比は得られた値の指数関数を使って計算される。本書ではこれ以上のこ
とは説明しないが、マルチクラス回帰問題を扱う必要があるなら、いつも使う機械学習ライブラリで多項ロ
ジスティック回帰関数を探し、その仕組みを調べるとよいだろう。
ベイズ分析では、分配関数と関連性のある概念が登場する。証拠 E の関数として最もそれらしいラベル
A を特定しなければならないことも多い。ベイズの定理は次のようなものだったことを思い出そう。
P (A | E) =
P (E | A)P (A)
P (E)
本物の確
率としてこれを計算するためには、分母の P (E) がわからなければならないが、これは簡単に計
算できない場合がある。しかし、ラベル B よりもラベル A の方が適切かどうかを調べるために P (A |