ollamaの使い方
概要
- LLMをローカルで動かすためのツール
- dockerのコマンドと同じように使える
インストール
linux
- linuxはsystemdでサービスを起動する
$ curl -fsSL https://ollama.com/install.sh | sh
macOS
- 自動起動はされない
$ brew install ollama
$ ollama serve
使い方
$ ollama pull gemma3:4b
$ ollama run gemma3:4b
>>> こんにちは
こんにちは!何かお手伝いできることはありますか? 😊
>>> Send a message (/? for help)
API経由での利用
import requests
url = "http://localhost:11434/api/generate"
data = {
"model": "gemma3:1b",
"prompt": "API経由でこんにちは!",
"stream": False
}
response = requests.post(url, json=data)
print(response.json()["response"])
"""
こんにちは!こちらこそ、お会いできて嬉しいです。何かお手伝いできることはありますか?
"""