tk3.biz
ブログ一覧に戻る

opencode + Ollama + Qwen3.6をWindows環境に構築してみた

AIopencodeOllamaQwenWindowsローカルLLM

はじめに

Claude Code のようなAIコーディングアシスタントをローカルのLLMで動かせないか試してみました。今回使ったのは opencode(旧称 sst/opencode)、ローカルLLMランナーの Ollama、そしてAlibaba Cloudが開発した Qwen3.6 です。

Qwen3.6とは?
Alibabが開発したQwen(通義千問)シリーズの最新世代。qwen3.6:latest は35Bパラメータのモデルで、コーディング・ツール呼び出し・思考(thinking)モードをサポートします。モデルサイズは約24GB、コンテキストウィンドウは256Kトークンと大規模です。

用意するもの

  • Windows 10/11
  • Node.js (npm が使える状態)
  • winget(Windows標準のパッケージマネージャー)
  • 十分なストレージ空き容量(モデルダウンロードに約24GB必要)

手順

1. opencodeをインストール

opencode はnpmでグローバルインストールできます。

npm i -g opencode-ai@latest

インストール後は opencode コマンドが使えるようになります。

2. Ollamaをインストール

winget を使ってOllamaをインストールします。パッケージIDは Ollama.Ollama です。

irm https://ollama.com/install.ps1 | iex

インストールが完了すると、Ollamaがバックグラウンドサービスとして起動し、http://localhost:11434 でAPIが利用可能になります。

3. モデルをダウンロード・起動

ollama run qwen3.6:latest

注意: qwen3.6:latest は約24GBのダウンロードが発生します。通信環境によっては時間がかかります。ダウンロード後、Ollamaのシェルが起動しそのまま対話できます。確認できたら Ctrl+D で終了して構いません。

4. opencodeの設定ファイルを作成

以下のパスに設定ファイルを作成します。

%USERPROFILE%\.config\opencode\opencode.json

フォルダが存在しない場合は作成してください。

mkdir "%USERPROFILE%\.config\opencode"

設定ファイルの内容は以下のとおりです。

{
  "$schema": "https://opencode.ai/config.json",
  "provider": {
    "ollama": {
      "npm": "@ai-sdk/openai-compatible",
      "name": "Ollama (local)",
      "options": {
        "baseURL": "http://127.0.0.1:11434/v1"
      },
      "models": {
        "qwen3.6:latest": {
          "name": "Qwen 3.6 (local)"
        }
      }
    }
  },
  "model": "ollama/qwen3.6:latest"
}

ポイント:

  • npm に指定する @ai-sdk/openai-compatible は、OllamaがOpenAI互換APIを提供しているため使用します。
  • baseURL はOllamaのデフォルトエンドポイントです。
  • OllamaはAPIキー認証が不要なため、auth.json の設定は不要です。

5. opencodeを起動

プロジェクトのディレクトリで以下を実行します。

opencode

TUIが起動し、Qwen3.6を使ってコーディングアシスタントとして利用できます。

実際に使ってみた感想

動作はしました。opencodeのインターフェースからQwen3.6に指示を出してコードを生成させることができます。

問題はVRAMです。

私のマシンのVRAMは 2GB しかありません。qwen3.6:latest は35Bパラメータ・24GBのモデルなので、GPU側に載せられる部分はほんのわずかで、残りはすべてシステムRAM上でCPU処理になります。結果として体感できるほど遅く、実用的には厳しい状況でした。

賢さはそれなりで、コーディング支援の質自体は悪くなかったです。VRAMさえ積んでいれば十分使えるでしょう。

VRAMの目安

モデルサイズ快適に動かすためのVRAM目安
qwen3.6:latest (35B)24GB24GB以上(RTX 4090 × 2など)
qwen3:8b5.2GB8GB以上(RTX 3070など)
qwen3:4b2.6GB4GB以上

軽量モデルから試したい場合は qwen3:4bqwen3:8b がおすすめです。

まとめ

  • opencode + Ollama + Qwen3.6の組み合わせはWindows上でも問題なく動作した
  • 設定ファイル1つで完結する構成はシンプルで分かりやすい
  • qwen3.6:latest は35B・24GBの大規模モデルのため、VRAMが潤沢でないと実用的な速度は出ない
  • 今回は速度の問題からClaude Codeに戻したが、十分なGPUがあれば有力な選択肢になりうる

ローカルLLMで完全オフライン・無料のAIコーディング環境を試してみたい方はぜひ挑戦してみてください。