8章TensorFlow Servingを用いたモデルのデプロイ
機械学習モデルのデプロイは、モデルを使って予測をする前に必要な最後のステップです。残念ながら、モデルのデプロイは、今日のデジタル業界における分業制の考え方の下では、グレーゾーンに位置しています。デプロイには、モデルアーキテクチャとそのハードウェア要件に関する知識がある程度必要なので、単なるDevOpsタスクではありません。それと同時に、デプロイは、機械学習エンジニアやデータサイエンティストの専門領域からは少し外れています。データサイエンティストはモデルについては詳しいですが、デプロイには苦労する傾向があります。本章と次章では、このギャップを埋め、データサイエンティストとDevOpsエンジニアがモデルをデプロイするためのステップを紹介します。図8-1は、機械学習パイプラインにおけるデプロイステップの立ち位置を示しています。
機械学習モデルは、主に3つの場所にデプロイできます。
- モデルサーバー
- ユーザーのブラウザ
- エッジデバイス
今日、機械学習モデルをデプロイするもっとも一般的な方法は、モデルサーバーを用いた方法です。予測をリクエストするクライアントは、モデルサーバーに入力データを送信し、戻り値として予測を受け取ります。そのためには、クライアントがモデルサーバーに接続できる必要があります。
ある状況では、入力データをモデルサーバーに送信したくないことがあります。たとえば、入力が機密性の高いデータであったり、プライバシーの問題がある場合などです。このような場合、機械学習モデルをユーザーのブラウザへデプロイすることが考えられます。これにより、画像に機密情報が含まれているかどうかをブラウザ側で分類してから、クラウドサーバーへアップロードできます。 ...
Get 入門 機械学習パイプライン ―TensorFlowで学ぶワークフローの自動化 now with the O’Reilly learning platform.
O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.