メインコンテンツへスキップ
← 記事一覧に戻る
·開発·13 min read

Continue × Ollama 完全無料運用 — VS Code で Cursor 代替を月額 ¥0 で作る

ContinueVS CodeOllamaCursor代替節約術個人開発

Cursor の月額 $20 を払うか迷っている VS Code ユーザー向けの記事です。

筆者は Cursor を試したあと、結局 VS Code + Continue + Ollama の構成に落ち着きました。月額 $0 で Cursor の 80% 程度の使い心地は得られています。本記事では Continue 拡張の役割、Cursor との具体的な機能比較、そして Ollama 接続用の ~/.continue/config.yaml 実物までを共有します。

筆者環境: VS Code 26.x + Continue v1.2.22 + Ollama 0.21.2 + Qwen2.5-Coder 7B/14B、M4 Pro 48GB、外部 Samsung SSD にモデル保管。設定後、Cmd+I (インライン編集) と Cmd+L (チャット) を Cursor と同じ感覚で使えるようになりました。本記事は 2026-04-27 のセットアップ実記録です。

この記事でわかること:

  • Continue とは何か (Cursor との関係)
  • Cursor との機能比較 (互換 80% / 残り 20% の正体)
  • Ollama を裏で動かして Continue から呼ぶ手順
  • ロール分配付きの config.yaml 実物
  • 動作確認とよくある引っかかり

Continue とは

Continue は VS Code 拡張として動く AI 編集ツールです。Continue.continue という拡張 ID で公開されており、VS Code Marketplace から無料でインストールできます。

機能としては Cursor の中核体験 (Cmd+I のインライン編集、Cmd+L のチャットパネル、@ メンションでファイル参照) を VS Code 拡張として実装したもの、という理解が一番近いです。決定的な違いは どの AI モデルを呼ぶかをユーザーが選ぶ 点。Cursor は Claude / GPT が同梱で月額制ですが、Continue は OpenAI / Anthropic API キーや、ローカルの Ollama / LM Studio 等を自分で接続します。

つまり Continue は「AI 編集体験のフロントエンド」で、頭脳 (モデル) は外付けです。本記事では頭脳を ローカルの Ollama にすることで、月額 $0 運用にします。

Cursor との機能比較

体感ベースの比較表です。

項目CursorContinue + Ollama
本体の形VS Code フォークの独立アプリVS Code 拡張
チャット (Cmd+L)◎ ほぼ同じ
インライン編集 (Cmd+I/K)◎ ほぼ同じ
タブ補完◎ 即動く△ FIM 用モデルを別途設定
Composer / Agent (複数ファイル編集)◎ 完成度高い○ Agent モードあるが Cursor ほど磨かれていない
使えるモデルClaude/GPT 同梱自分で接続 (Ollama・API・Hub)
コスト月 $20 (Pro)月 ¥0 (ローカル運用)
プライバシークラウド (リクエストは Cursor 経由)完全ローカル (コードが外に出ない)
コードベース検索 (@codebase)

互換度は機能ベースで 80% 程度。Cursor の優位性が残るのは「タブ補完の即時性」と「同梱モデルの賢さ」の 2 点です。タブ補完については後述しますが Continue でも実装可能です。モデルの賢さについては、ローカル Qwen 14B では Claude/GPT に劣るので、複雑な作業は Claude Code 等で別建てするのが現実解です(その分業設計は

で詳述しています)。

なぜ「Continue + Ollama」を選んだのか

筆者の判断基準は 3 つでした。

  1. コードを外に送りたくない: 業務コードや有料記事の下書きを扱う以上、リクエストが第三者サービスを経由するのは抵抗があった
  2. Claude Code を別途使っていた: Cursor のモデル枠を二重で払う構造になるのが嫌だった
  3. VS Code を捨てたくなかった: 拡張資産・キーバインド・テーマを移行する手間を避けたかった

逆に言うと、上のどれにも当てはまらない方は Cursor を素直に試した方が早いです。Cursor の同梱モデルは賢く、タブ補完も最初から動きます。Continue + Ollama は 「VS Code 維持」「ローカル完結」「コスト 0」が同時に欲しい人向けの選択です。

セットアップ手順

前提として Ollama が動いている必要があります。Ollama 単体のセットアップは

で別記事化していますが、最低限の確認だけ書くと:

curl http://localhost:11434/api/version
# {"version":"0.21.2"} のように返ればOK

Ollama 側でモデル (今回は Qwen2.5-Coder 7B / 14B) が pull 済みであることも確認しておきます。

ollama list
# qwen2.5-coder:14b と qwen2.5-coder:7b が並んでいればOK

ここまで整っていれば Continue 側は 3 ステップです。

1. Continue 拡張をインストール

VS Code の拡張ビューで Continue.continue を検索してインストール。CLI からなら以下です。

code --install-extension Continue.continue

インストール完了後、左サイドバーに Continue のアイコンが追加されます。

2. config.yaml を編集

初回起動時に ~/.continue/config.yaml が空のテンプレートで作成されているので、これを以下で上書きします。

name: Local Ollama (Qwen2.5-Coder)
version: 1.0.0
schema: v1

models:
  # 14B: refactor / 複雑な編集 → edit (Cmd+I のデフォルト)
  - name: Qwen2.5-Coder 14B (quality)
    provider: ollama
    model: qwen2.5-coder:14b
    apiBase: http://localhost:11434
    defaultCompletionOptions:
      contextLength: 32768
      temperature: 0.2
    roles:
      - chat
      - edit

  # 7B: 機械的 apply 専任、チャットでは選択可
  - name: Qwen2.5-Coder 7B (fast)
    provider: ollama
    model: qwen2.5-coder:7b
    apiBase: http://localhost:11434
    defaultCompletionOptions:
      contextLength: 32768
      temperature: 0.2
    roles:
      - chat
      - apply

context:
  - provider: code
  - provider: diff
  - provider: terminal
  - provider: problems
  - provider: folder
  - provider: codebase
  - provider: file
  - provider: open

ポイントは roles の振り分けです。

  • edit (Cmd+I のインライン編集) → 14B 専任。refactor 用途で品質を担保
  • apply (チャットで提示された diff の適用) → 7B 専任。機械的なパッチング、速度優先
  • chat (会話パネル) → 両方残す。UI ドロップダウンで切替可能

このロール分配の根拠は、別記事

のベンチ結果を参照してください。簡潔に言うと「7B は速いが refactor でロジックバグを混入させる事例があり、Cmd+I のデフォルトに置くのは危険」だからです。

3. VS Code を Reload Window

Continue は config の変更を保存時に自動リロードしますが、初回は念のため Cmd+Shift+PDeveloper: Reload Window を実行します。

動作確認

Continue のチャットパネル (左サイドバーの Continue アイコン、または Cmd+L) を開き、上部のモデル選択ドロップダウンに以下 2 つが並んでいれば config が正しく読み込まれています。

  • Qwen2.5-Coder 14B (quality)
  • Qwen2.5-Coder 7B (fast)

簡単なプロンプトで疎通確認しましょう。

Write a one-line Vitest test for: function sum(a, b) { return a + b }

数秒の思考のあと、以下のようなテストコードが返れば全パイプライン稼働です。

test('sums two numbers', () => expect(sum(1, 2)).toBe(3));

Cmd+I のインライン編集も試します。任意の TypeScript ファイルを開き、関数を選択して Cmd+I を押下、「Add JSDoc」と入力します。14B が動いて JSDoc を生成してくれます (M4 Pro 機の場合 25 tok/s 程度なので、数秒〜十数秒かかります)。

よくある引っかかり

筆者がセットアップ時にハマったポイントです。

症状原因 / 対処
ドロップダウンが空~/.continue/config.yaml の YAML 文法エラー。Continue: Open Settings で確認、または別途 yaml linter で検証
「No models configured」拡張が config 読み込みに失敗。Cmd+Shift+PDeveloper: Reload Window
応答が来ない / タイムアウトOllama 側がダウンしている。curl http://localhost:11434/api/version で疎通確認
「Models Add-On」の課金パネルが出るContinue 公式のホスティングサービス宣伝。右上の × で閉じれば OK、ローカル運用には不要
起動直後の応答が遅いモデルの初回ロード (~7 秒)。2 回目以降は warm 状態で速い

特に 4 番目の「Models Add-On」パネルは初見だと「これを設定しないと使えないの?」と誤解しがちですが、Continue 公式の有料機能 (フロンティアモデル代行販売) の宣伝です。閉じてしまって構いません。

タブ補完を Cursor 並みにしたい場合 (任意)

Cursor の「ゴーストテキスト → Tab で確定」体験は、Continue 標準では設定されていません。欲しい場合は FIM (Fill-In-the-Middle) 用の小型モデルを別途用意します。

ollama pull qwen2.5-coder:1.5b-base

config.yaml の models セクションに以下を追加します。

  - name: Qwen2.5-Coder 1.5B (FIM)
    provider: ollama
    model: qwen2.5-coder:1.5b-base
    apiBase: http://localhost:11434
    roles:
      - autocomplete

qwen2.5-coder:1.5b-base は約 1GB、M4 Pro 機なら入力に追従するゴーストテキストが返ります。ただし Cursor 同梱の専用モデルほど洗練されていない感覚なので、まずは autocomplete なしで使ってみて、必要を感じたら追加 で十分です。

まとめ

Continue は「Cursor と同じ AI 編集体験を、自分のモデルで動かしたい」人のための VS Code 拡張です。Ollama と組み合わせれば月額 ¥0、コードはマシンの外に出ません。Cursor の同梱モデルが持つ賢さには及ばない部分 (複雑な refactor 等) は、Claude Code 等を別建てで併用する分業設計でカバーできます。

セットアップ自体は 30 分かからないので、Cursor を契約するか迷っている方は週末に一度試してみる価値があります。

関連記事

MAX プランから Pro プランへ — Claude Code の節約術 (Ollama 分業設計)

Claude Code を Max → Pro に戻すために組んだ分業設計。本記事の補完にあたる、役割分担の判断基準と実機ベンチを掲載。

Ollama を Mac の外部 SSD で動かす — Apple Silicon でローカル LLM を立てる手順

Continue の頭脳である Ollama 単体のセットアップ。外部 SSD 運用と Rosetta brew 回避の実例。

Claude Crew Lab Free — 毎月の実験記録をメールで

Claude Code × 個人開発のリアルな事故・発見・SaaS アイデアを毎月第1月曜にお届け。登録で「収益化チェックリスト 15 項目」を無料プレゼント。

Lab Free 登録(月1回・無料)

この記事が役に立ったらシェア