【Ollama】ローカルでLLMを動かしてみよう!
投稿更新日: 2025/6/5

AIの進化に伴い、ローカル環境でLLM(大規模言語モデル)を利用することが注目されています。その中でも、Metaが提供する Ollama は非常に手軽でパワフルなツールです。
この記事では、Ollamaを使ってローカル環境でLLMを実行する方法や、その魅力について紹介します。
Ollamaって何?
Ollamaは、ローカルでLLMを動作させるためのプラットフォームです。これにより、インターネット接続が不要な環境でもAIを活用でき、プライバシーの面でも安心です。また、ローカル実行のため応答速度が非常に速いのが特徴です。
公式リポジトリはこちら → Ollama GitHub
必要なスペックは?
READMEによると以下のメモリが推奨されています:
You should have at least 8 GB of RAM available to run the 7B models, 16 GB to run the 13B models, and 32 GB to run the 33B models.
例えば、16GBメモリ搭載のM2 MacBook Proであれば、7Bモデルを快適に実行できます。
インストール方法
※Macでの手順です。
- 公式サイトからインストーラーをダウンロード → ダウンロードページ
- ダウンロードしたZIPファイルを解凍し、アプリケーションフォルダにドラッグ&ドロップ。
- アプリを起動してセットアップを進めます。
セットアップ画面は非常に直感的で、クリックするだけで完了します。以下に画面キャプチャも掲載しておきます。
スクリーンショット
-
起動直後
-
インストール中
-
コマンドラインのインストール完了
モデルのロードと実行
インストール後、コマンドラインからモデルを操作します。以下は実際の手順です。
1. インストール確認
まずはインストールされたバージョンを確認。
ollama --version ollama version is 0.5.4
2. モデルをロード
ここでは llama3.2 をロードしてみます。
ollama run llama3.2
ロード中はモデルデータをダウンロードします。ダウンロードが完了すれば、すぐに使用可能です。
実際にチャットをしてみる
モデルが起動したら、チャットを始められます。以下はサンプルのやり取りです。
>>> hello llama. Hello! It's nice to meet you. I hope you're having a great day! Is there anything I can help you with or would you like to chat?
日本語でのやり取りも可能です。
>>> 日本語で回答してください。大晦日の過し方のアイデアください。 大晦日は、日本では12月31日を表す日です。この日は、年の余りを振り返って、新しい年が始まる前夜に過ごすためによく行われています。...
モデルによって日本語の精度は異なりますが、実用レベルで十分なレスポンスを得られます。
使用モデルごとの特徴とメモリ使用量
以下にいくつかのモデルを試した結果をまとめました。
| モデル | メモリ使用量 | 日本語対応 | 特徴 |
|---|---|---|---|
| llama3.2 | 約13GB | 良い | 応答速度が速く、会話が自然 |
| mistral | 約15GB | 普通 | 日本語の文法や内容がやや怪しい |
| gemma | 約15GB | 良い | 日本語の精度が高く自然 |
コマンドの便利な使い方
-
ヘルプを表示
>>> /?で利用可能なコマンド一覧を確認。 -
モデル情報を表示
>>> /show infoで現在ロードしているモデルの詳細を確認。 -
セッションを終了
>>> /byeでセッションを終了。
Ollamaを使うメリット
-
セキュリティ
モデルをローカルにロードするため、データが外部に流出する心配がありません。
-
コスト
クラウドサービスを利用しないため、運用コストを抑えられます。
-
スピード
ローカル環境での推論なので、応答速度が非常に速いです。
-
モデル切り替えが簡単
コマンド一つで複数のモデルを試せるのは大きな魅力です。
まとめ
Ollamaを使えば、手軽にローカル環境でLLMを活用できます。特に、セキュリティやコストが気になるプロジェクトでの利用に最適です。日本語対応やメモリ使用量など、いくつか注意点はありますが、個人利用から業務用途まで幅広く活用できるツールです。
ぜひ一度試してみてください。
この記事をシェアする
合同会社raisexでは一緒に働く仲間を募集中です。
ご興味のある方は以下の採用情報をご確認ください。


