9章モデルを本番環境にデプロイ
これまでの章では、モデルの訓練と最適化の方法を説明しました。本章では、ラボでのモデル開発から実運用環境でのモデルデプロイに焦点を移します。本章では、アプリケーションやビジネスのユースケースに合わせて、モデルをデプロイ、最適化、スケーリング、監視する方法を紹介します。
モデルをオンラインのリアルタイム予測用にデプロイします。また、オフラインのバッチ予測を実行する方法を紹介します。リアルタイム予測では、SageMaker Endpointを使用してモデルをデプロイします。カナリアロールアウトやブルー/グリーンデプロイメントなどのベストプラクティスやデプロイ戦略について議論します。A/Bテストを使用して新しいモデルをテストし、比較する方法や、多腕バンディット(multiarmed bandit、MAB)テストを使用した強化学習を実装する方法を紹介します。モデル予測のトラフィックの変化に合わせて、モデルのホスティングインフラストラクチャを自動的にスケールする方法を示します。デプロイされたモデルを継続的に監視し、コンセプトのドリフト、モデルの品質やバイアスのドリフト、特徴量重要度のドリフトを検出する方法を紹介します。また、Lambdaを使ったサーバーレスAPIによるモデル予測の提供や、エッジでのモデルの最適化と管理方法についても触れています。最後に、AWS Inferentiaハードウェア、SageMaker Neoサービス、TensorFlow Liteライブラリなど、さまざまなハードウェア、サービス、ツールを使って、モデルサイズの縮小、推論コストの削減、予測性能の向上を実現するためのヒントを紹介して、本章を締めくくります。
9.1 リアルタイム予測とバッチ予測の選択 ...
Get 実践 AWSデータサイエンス ―エンドツーエンドのMLOpsパイプライン実装 now with the O’Reilly learning platform.
O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.