要点
GitHub Copilot CLIがBYOK(Bring Your Own Key)とローカルモデルをサポートし、ユーザーが任意のモデルプロバイダーを接続できるようになったことで、コスト管理、オフライン環境での利用、GitHub認証の不要化など柔軟性が大幅に向上した。
タイトル: Copilot CLI が BYOK とローカルモデルをサポート
GitHub Copilot CLI は、GitHub がホストするモデルルーティングを使用する代わりに、独自のモデルプロバイダーを接続したり、完全にローカルなモデルを実行したりできるようになりました。これにより、既にお支払い中のモデルやプロバイダーを利用したり、エアギャップ環境で運用したり、LLM の支出を直接管理したりできる一方で、これまでと同じエージェント型ターミナルエクスペリエンスを維持できます。
任意のモデルプロバイダーに接続
Copilot CLI を起動する前に環境変数をいくつか設定するだけで、Azure OpenAI、Anthropic、またはあらゆる OpenAI互換エンドポイントを使用するように構成できます。これは、OpenAI や Azure OpenAI などのリモートサービスだけでなく、Ollama、vLLM、Foundry Local などのローカルで実行するモデルでも機能します。設定手順については、「GitHub Copilot CLI で独自の LLM モデルを使用する」を参照してください。
エアギャップ環境のためのオフラインモード
COPILOT_OFFLINE=true を設定すると、Copilot CLI が GitHub のサーバーに接続することを防止できます。オフラインモードでは、すべてのテレメトリが無効化され、CLI は設定したプロバイダーとのみ通信します。ローカルモデルと組み合わせることで、完全にエアギャップ化された開発ワークフローが実現します。詳細については、「オフラインモードでの実行」を参照してください。
GitHub 認証がオプションに
独自のモデルプロバイダーを使用する場合、GitHub 認証は不要です。プロバイダーの認証情報だけで、すぐに Copilot CLI の使用を開始できます。さらに GitHub にもサインインすれば、両方の利点を享受できます。AI 応答にはご希望のモデルを使用しつつ、/delegate コマンド、GitHub Code Search、GitHub MCPサーバーなどの機能にもアクセスできるようになります。詳細については、「認証なしでの使用」を参照してください。
知っておくべきこと
- 使用するモデルは、ツール呼び出しとストリーミングをサポートしている必要があります。最良の結果を得るには、少なくとも 128k トークンのコンテキストウィンドウを持つモデルを使用してください。
- 組み込みのサブエージェント(explore、task、code-review)は、自動的に設定したプロバイダー構成を継承します。
- プロバイダー構成が無効な場合、Copilot CLI は具体的な対処方法を示すエラーメッセージを表示します。GitHub ホスト型モデルへ黙ってフォールバックすることはありません。
- ターミナル内で直接クイックセットアップ手順を確認するには、
copilot help providersを実行してください。 - GitHub Community でディスカッションに参加しましょう。
この投稿「Copilot CLI now supports BYOK and local models」は、The GitHub Blog で最初に公開されました。