22章自己改良型モデルにおけるバイアスの予防法

機械学習の大きな利点のひとつに「人間の一切の介在なしでモデル自身が自らを構築、更新できるため、構造的変化への極力迅速な対応が可能なこと」があります。ただ、自己改良型アルゴリズム(self-improving algorithms)を必要とする状況そのもの(たとえばアルゴリズムの運用環境の急激な変化など)が、そのアルゴリズムに悪影響を与えるバイアスの発生リスクを高める要因ともなり得ます。ソーシャルメディアで、当初は小規模であったバイアスを時の経過とともに増幅させるフィードバックループが生じてしまうとか(これは「11章 ソーシャルメディアとアルゴリズミックバイアス」で紹介した事例です)、新しいデータのせいで、保護対象のクラスに対するバイアスが生じてしまうといった事態が起きるのです。

そこでこの章では、自己改良型の機械学習モデルでアルゴリズミックバイアスを予防する具体的な手法を紹介します。ただしどの手法についても、適用可能性も有効性も状況に強く依存するため、「万能薬」的なソリューションではなく、カスタマイズされたモデルデザインに有用な手がかりを提示するつもりです。

自己改良型の機械学習モデルを安全に運用するためには、次の3つの側面で特別な配慮が必要です。

  • モデル開発
  • 「非常ブレーキ」——重大なバイアスが生じていることを警告する信号が灯った場合、モデルの更新バージョンが本番稼働してしまうのを防ぎます
  • 監視モニタリング——本番稼働させてからの自己改良型モデルの入力、特性、出力の、担当者自身による定期点検が必要です(このプロセスは、バイアスの生じているモデルが本番稼働してしまうのを防ぐ回避策とはなりませんが、問題を迅速に察知することで損失を被る可能性を抑制する効果があります) ...

Get AIの心理学 ―アルゴリズミックバイアスとの闘い方を通して学ぶ ビジネスパーソンとエンジニアのための機械学習入門 now with the O’Reilly learning platform.

O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.