第14章 サードパーティのモデルとハブを使う
この作品はAIを使って翻訳されている。ご意見、ご感想をお待ちしている:translation-feedback@oreilly.com
オープンソースの PyTorch フレームワークの成功は、補足的なエコシステムの成長につながった。この章では、事前学習されたモデルの様々なオプションと、それらをダウンロード、インスタンス化、推論に使用するために使用される関連ツールやリソースについて見ていく。
PyTorchフレームワークがDeep Learningの基盤を提供する一方で、コミュニティは、すぐに使用・拡張できるモデルを格納する多数のリポジトリやハブを作成しており、ゼロから始めるよりも、既存の作業を使用・拡張する方が簡単になっている。私はこれを "巨人の肩の上に立つ "と呼びたい。
ジェネレーティブAIの登場以来、こうしたハブは爆発的に普及し、ワークフロー内でのジェネレーティブMLモデルの多くのシナリオは、ここから発展してきた。その結果、事前に訓練されたモデルを使用する場合、多くの選択肢がある。複製するのは非現実的な膨大なデータセットで訓練されたモデルを活用して、推論に直接使用することもできる。あるいは、学習した特徴を保持したまま、特定のドメインやタスクに適応させる、微調整の出発点としてこれらのモデルを使うこともできる。これは、第20章で説明するような低ランク適応(LoRA)や、あるタスクの知識を別のタスクに適用する転移学習の形をとることができる。転移学習やその他の微調整は、特に限られたデータやコンピューティングリソースで作業する場合、標準的なプラクティスとなっている。
事前学習済みモデルを使用する利点は、コンピューティングリソースや時間の節約にとどまらない。これらのモデルは多くの場合、最先端のアーキテクチャを表しており、あなたが直接アクセスできないような多様で高品質なデータセットで訓練されている。
さらに、プロバイダーは一般的に、広範なドキュメント、パフォーマンス・ベンチマーク、コミュニティ・サポートとともにモデルをリリースしている。責任あるAIの重要性を考慮し、これらのモデルには、潜在的な責任問題をナビゲートできるよう、行われた研究や作業を理解するのに役立つモデルカードが付属していることが多い。
すべてを支配する1つのハブ」は存在しないため、主要なハブそれぞれを理解し、それらを最大限に活用する方法を理解することは有益である。そのために、この章ではより人気のあるものをいくつか見ていこう。
Hugging Faceはトランスフォーマモデルのデファクトスタンダードとなっており、PyTorch Hubは公式にサポートされた実装を提供している。Kaggleのようなプラットフォームはコンテストで優勝したモデルを提供し、GitHubベースのTorchHubは研究実装に直接アクセスできる。
これらのリソースとその効果的な使い方を理解することが重要だと思う。ディープラーニングの分野が進歩を続ける中、最先端のモデルへのアクセスを広げ、AIアプリケーションの迅速な開発を可能にする上で、これらのハブはますます重要な役割を果たしている。そして、AI開発者の役割が成熟し、成長するにつれて、ゼロからモデルをトレーニングするのではなく、既存のモデルを使用したり、微調整したりするソフトウェア開発者のキャリアが大きく成長するのを、私は個人的に見ている。そのためにも、この章があなたの成長に役立つことを願っている!
ハグする顔ハブ
近年、特に ...
Become an O’Reilly member and get unlimited access to this title plus top books and audiobooks from O’Reilly and nearly 200 top publishers, thousands of courses curated by job role, 150+ live events each month,
and much more.
Read now
Unlock full access