ollamaの使い方
概要
- LLMをローカルで動かすためのツール
- dockerのコマンドと同じように使える
Config-as-Code
でModelfile
を使ってモデルを管理できる
インストール
linux
- linuxはsystemdでサービスを起動する
$ curl -fsSL https://ollama.com/install.sh | sh
macOS
- 自動起動はされない
$ brew install ollama
$ ollama serve
使い方
# gemma
$ ollama pull gemma3:4b
# gpt-oss(20B)
$ ollama pull gpt-oss:latest
対話モードでの利用
$ ollama run gemma3:4b
>>> こんにちは
こんにちは!何かお手伝いできることはありますか? 😊
>>> Send a message (/? for help)
引数での利用
$ ollama run gemma3:4b "こんにちは、今日の東京はとても暑いです。返信を一行で"
こんにちは!東京は本当に暑いですね!
Modelfileを利用する例
# Modelfile
FROM gemma3:4b
PARAMETER temperature 0.0
SYSTEM "与えられた文が『質問』か『陳述』かを判定し、question または statement の1語だけで返答する。説明や余計な語は出力しない。"
# few-shot
MESSAGE user "今日は雨?"
MESSAGE assistant "question"
MESSAGE user "今日は晴れだ。"
MESSAGE assistant "statement"
利用
$ ollama create gemma3-qa-detector -f Modelfile
$ ollama run gemma3-qa-detector "この関数って計算量どれくらでしょうか"
question
API経由での利用
import requests
url = "http://localhost:11434/api/generate"
data = {
"model": "gemma3:1b",
"prompt": "API経由でこんにちは!",
"stream": False
}
response = requests.post(url, json=data)
print(response.json()["response"])
"""
こんにちは!こちらこそ、お会いできて嬉しいです。何かお手伝いできることはありますか?
"""