第2章. 誰もが使いやすいAIシステムの作成
この作品はAIを使って翻訳されている。ご意見、ご感想をお待ちしている:translation-feedback@oreilly.com
今日の AIモデルは、画像を分析し、そのコンテンツを驚くほど正確に描写することができるが、バイアスを示すこともある。このようなモデルを起動し、白衣を着て聴診器を首にかけた男性の写真(図2-1の左側)を見せたとしよう。1
図2-1. 白衣に聴診器をつけた一般的な男女の写真
モデルは "これは医者だ "と答える。次に、聴診器をつけた白衣を着た女性の写真をAIモデルに見せる。モデルは "これは看護師です "と答える。AIモデルは、医師は男性で看護師は女性であるというバイアスを表示した。
また、AIモデルが右の写真を "女医"、左の写真を "医者 "と認識しているのも見たことがある。マークされた言語として知られる女性の追加は、 、ソフトウェアアプリケーションが、あるグループを他のグループより優遇する微妙で望ましくないバイアスを表示することができるもう一つの方法である。
私の例が無害に見えるなら、同じAIモデルが求人広告を提供するWebサイトのエンジンだったらどうなるか考えてみよう。もし同じAIモデルが、女性ユーザーよりも男性ユーザーに医師のポジションをより多く紹介したらどうなるだろうか?女性にとって経済的な機会の喪失につながりかねない、自動化された職業差別の話である。この例は私が考案したものだが、企業はよく似たことで非難されてきた。2
AIのコミュニティでは、この種の有害なバイアス( )は公平性の 問題( )と呼ばれ、解決は非常に難しい。私の仮定的なWebサイトの場合、不公正な振る舞いが修正すべきバグであることは明らかだ。しかし、他の公平性の問題はもっと微妙である可能性があり、これから説明するように、公平性そのものを定義するのは難しく、100%保証することは不可能である。私たちにできることは、システムの公平性を分析し、問題を特定し、システムを以前よりも公平にすることである。
この章では、ソフトウェアにおける公平性とバイアスの問題を検討し、誰にとっても機能するシステムを設計・構築する手助けをする。公平性は、特にAIにおいて活発な研究が行われている巨大な分野であるため、ここではほんの一握りのトピックに限定して論じることにした。公平性とは何か、なぜそれがソフトウェア・エンジニアにとっての課題なのかを探り、公平性をテストし有害なバイアスを緩和するための一般的なアプローチをいくつか紹介する。
この章が、あなたがこれらのことを行う手助けになることを願っている:
-
AIにおける公平性の課題を理解する
-
AIの公正さを議論するための語彙を学ぶ
-
エンジニアリングの仕事に公正さを取り入れるための戦略を学ぶ
注
私の例の多くは、テキストプロンプトからのAI画像生成(別名、テキストから画像へのモデル)に焦点を当てている。しかし、この章の概念は、チャットボット、画像からテキスト(キャプション)モデル、従来の機械学習、言語から言語への翻訳、その他の形態のAIにも当てはまる。 ...