Skip to Content
PyTorch によるコーダーのための AI および ML
book

PyTorch によるコーダーのための AI および ML

by Laurence Moroney
July 2025
Intermediate to advanced
444 pages
7h 8m
Japanese
O'Reilly Media, Inc.
Content preview from PyTorch によるコーダーのための AI および ML

第17章. OllamaでLLMを扱う

この作品はAIを使って翻訳されている。ご意見、ご感想をお待ちしている:translation-feedback@oreilly.com

トランスフォーマーを使ってモデルをダウンロードし、それを推論や微調整に使うための簡単なパイプラインを構築する方法について説明してきた。オープンソースのOllamaプロジェクトは、LLMの完全なラッパーを提供し、ターミナルでチャットしたり、HTTP POSTして出力を読み取るサーバとして使える環境を提供してくれる。

Ollamaのようなテクノロジーは、次世代のLLMの先駆けとなるだろう。LLMは、データセンター内の専用サーバやコンピュータ上の専用プロセスを持つことができる。そうなれば、LLMは完全にあなただけのものになる。

Ollamaはオープンソースプロジェクトであり、あなたのコンピューター上でLLMをダウンロードし、実行し、管理するプロセスを簡素化する。メモリ管理やモデルの最適化といった非機能要件も処理し、モデルへのHTTP POST機能など、インタラクションのための標準化されたインタフェースを提供する。

Ollamaは、GPT、Claude、Geminiのようなクラウドベースのサードパーティ・サービスと、ローカルにデプロイされたサービスとのギャップを埋めるという点でも、検討すべき重要な戦略ツールである。ローカル開発環境を提供するだけでなく、例えば、複数の内部ユーザにサービスを提供するために、自社のデータセンター内で使用することもできる。

ローカルでモデルを実行することで、データの完全なプライバシーを確保し、ネットワーク遅延をなくし、オフラインで作業することができる。これは、機密データや一貫性のある低遅延レスポンスを必要とするアプリケーションを含むシナリオでは特に重要である。

Ollamaはまた、Llama、Mistral、Gemmaを含む一般的なオープンソースモデルのライブラリーをサポートし、特定のタスクに最適化された様々な特殊化モデルもサポートしている。各モデルは、Dockerコンテナの仕組みに似た方法で、簡単なコマンドでプルして実行することができる。プラットフォームはモデルの量子化を自動的に処理し、優れたパフォーマンスを維持しながら、コンシューマ・ハードウェアで効率的に実行できるようにモデルを最適化する。

この章では、Ollamaを3つの方法で探索する:インストールと開始、特定のモデルをインスタンス化して使用する方法、そしてプライバシーを保持するLLMアプリケーションを構築できるRESTful APIを探索する。

Ollamaを使い始める

Ollamaプロジェクトはollama.comでホストされている。 ホーム画面にはmacOS、Linux、Windows用のダウンロードオプションがある。Windows版にはWindows Subsystem for Linux(WSL)が必要であることにも注意しよう。この章では、macOS版を使用する。

Webサイトに移動すると、ダウンロードを歓迎するフレンドリーなメッセージが表示される(図17-1参照)。

図17-1. Ollamaを使い始める

Ollamaのダウンロードとインストールが完了したら、Ollamaを起動すると、画面上部のシステム・バーにOllamaが表示される。Ollama ...

Become an O’Reilly member and get unlimited access to this title plus top books and audiobooks from O’Reilly and nearly 200 top publishers, thousands of courses curated by job role, 150+ live events each month,
and much more.

Read now

Unlock full access

More than 5,000 organizations count on O’Reilly

AirBnbBlueOriginElectronic ArtsHomeDepotNasdaqRakutenTata Consultancy Services

QuotationMarkO’Reilly covers everything we've got, with content to help us build a world-class technology community, upgrade the capabilities and competencies of our teams, and improve overall team performance as well as their engagement.
Julian F.
Head of Cybersecurity
QuotationMarkI wanted to learn C and C++, but it didn't click for me until I picked up an O'Reilly book. When I went on the O’Reilly platform, I was astonished to find all the books there, plus live events and sandboxes so you could play around with the technology.
Addison B.
Field Engineer
QuotationMarkI’ve been on the O’Reilly platform for more than eight years. I use a couple of learning platforms, but I'm on O'Reilly more than anybody else. When you're there, you start learning. I'm never disappointed.
Amir M.
Data Platform Tech Lead
QuotationMarkI'm always learning. So when I got on to O'Reilly, I was like a kid in a candy store. There are playlists. There are answers. There's on-demand training. It's worth its weight in gold, in terms of what it allows me to do.
Mark W.
Embedded Software Engineer

You might also like

生成 Deep Learning ―絵を描き、物語や音楽を作り、ゲームをプレイする

生成 Deep Learning ―絵を描き、物語や音楽を作り、ゲームをプレイする

David Foster, 松田 晃一, 小沼 千絵
ダイナミックリチーミング 第2版 ―5つのパターンによる効果的なチーム編成

ダイナミックリチーミング 第2版 ―5つのパターンによる効果的なチーム編成

Heidi Helfand, 永瀬 美穂, 吉羽 龍太郎, 原田 騎郎, 細澤 あゆみ

Publisher Resources

ISBN: 9798341662636