• home
  • about
  • 全ての投稿
  • ソフトウェア・ハードウェアの設定のまとめ
  • 分析関連のまとめ
  • ヘルスケア関連のまとめ
  • 生涯学習関連のまとめ

ollama

date: 2025-03-20 excerpt: ollamaの使い方

tag: ollama


ollamaの使い方

概要

  • LLMをローカルで動かすためのツール
  • dockerのコマンドと同じように使える

インストール

linux

  • linuxはsystemdでサービスを起動する
$ curl -fsSL https://ollama.com/install.sh | sh

macOS

  • 自動起動はされない
$ brew install ollama
$ ollama serve

使い方

$ ollama pull gemma3:4b
$ ollama run gemma3:4b
>>> こんにちは
こんにちは!何かお手伝いできることはありますか? 😊


>>> Send a message (/? for help)

API経由での利用

import requests

url = "http://localhost:11434/api/generate"

data = {
        "model": "gemma3:1b",
        "prompt": "API経由でこんにちは!",
        "stream": False
        }

response = requests.post(url, json=data)
print(response.json()["response"])
"""
こんにちは!こちらこそ、お会いできて嬉しいです。何かお手伝いできることはありますか?
"""


ollama Share Tweet