はじめに
Claude Code のようなAIコーディングアシスタントをローカルのLLMで動かせないか試してみました。今回使ったのは opencode(旧称 sst/opencode)、ローカルLLMランナーの Ollama、そしてAlibaba Cloudが開発した Qwen3.6 です。
Qwen3.6とは?
Alibabが開発したQwen(通義千問)シリーズの最新世代。qwen3.6:latestは35Bパラメータのモデルで、コーディング・ツール呼び出し・思考(thinking)モードをサポートします。モデルサイズは約24GB、コンテキストウィンドウは256Kトークンと大規模です。
用意するもの
- Windows 10/11
- Node.js (npm が使える状態)
- winget(Windows標準のパッケージマネージャー)
- 十分なストレージ空き容量(モデルダウンロードに約24GB必要)
手順
1. opencodeをインストール
opencode はnpmでグローバルインストールできます。
npm i -g opencode-ai@latest
インストール後は opencode コマンドが使えるようになります。
2. Ollamaをインストール
winget を使ってOllamaをインストールします。パッケージIDは Ollama.Ollama です。
irm https://ollama.com/install.ps1 | iex
インストールが完了すると、Ollamaがバックグラウンドサービスとして起動し、http://localhost:11434 でAPIが利用可能になります。
3. モデルをダウンロード・起動
ollama run qwen3.6:latest
注意: qwen3.6:latest は約24GBのダウンロードが発生します。通信環境によっては時間がかかります。ダウンロード後、Ollamaのシェルが起動しそのまま対話できます。確認できたら Ctrl+D で終了して構いません。
4. opencodeの設定ファイルを作成
以下のパスに設定ファイルを作成します。
%USERPROFILE%\.config\opencode\opencode.json
フォルダが存在しない場合は作成してください。
mkdir "%USERPROFILE%\.config\opencode"
設定ファイルの内容は以下のとおりです。
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"ollama": {
"npm": "@ai-sdk/openai-compatible",
"name": "Ollama (local)",
"options": {
"baseURL": "http://127.0.0.1:11434/v1"
},
"models": {
"qwen3.6:latest": {
"name": "Qwen 3.6 (local)"
}
}
}
},
"model": "ollama/qwen3.6:latest"
}
ポイント:
npmに指定する@ai-sdk/openai-compatibleは、OllamaがOpenAI互換APIを提供しているため使用します。baseURLはOllamaのデフォルトエンドポイントです。- OllamaはAPIキー認証が不要なため、
auth.jsonの設定は不要です。
5. opencodeを起動
プロジェクトのディレクトリで以下を実行します。
opencode
TUIが起動し、Qwen3.6を使ってコーディングアシスタントとして利用できます。
実際に使ってみた感想
動作はしました。opencodeのインターフェースからQwen3.6に指示を出してコードを生成させることができます。
問題はVRAMです。
私のマシンのVRAMは 2GB しかありません。qwen3.6:latest は35Bパラメータ・24GBのモデルなので、GPU側に載せられる部分はほんのわずかで、残りはすべてシステムRAM上でCPU処理になります。結果として体感できるほど遅く、実用的には厳しい状況でした。
賢さはそれなりで、コーディング支援の質自体は悪くなかったです。VRAMさえ積んでいれば十分使えるでしょう。
VRAMの目安
| モデル | サイズ | 快適に動かすためのVRAM目安 |
|---|---|---|
| qwen3.6:latest (35B) | 24GB | 24GB以上(RTX 4090 × 2など) |
| qwen3:8b | 5.2GB | 8GB以上(RTX 3070など) |
| qwen3:4b | 2.6GB | 4GB以上 |
軽量モデルから試したい場合は qwen3:4b や qwen3:8b がおすすめです。
まとめ
- opencode + Ollama + Qwen3.6の組み合わせはWindows上でも問題なく動作した
- 設定ファイル1つで完結する構成はシンプルで分かりやすい
qwen3.6:latestは35B・24GBの大規模モデルのため、VRAMが潤沢でないと実用的な速度は出ない- 今回は速度の問題からClaude Codeに戻したが、十分なGPUがあれば有力な選択肢になりうる
ローカルLLMで完全オフライン・無料のAIコーディング環境を試してみたい方はぜひ挑戦してみてください。