GitHub Copilot · リリースノート

Copilot CLIがBYOKとローカルモデルをサポート

公開日
ベンダー
GitHub
翻訳
機械翻訳
公式 Release ノート

要点

GitHub Copilot CLIがBYOK(Bring Your Own Key)とローカルモデルをサポートし、ユーザーが任意のモデルプロバイダーを接続できるようになったことで、コスト管理、オフライン環境での利用、GitHub認証の不要化など柔軟性が大幅に向上した。

タイトル: Copilot CLI が BYOK とローカルモデルをサポート

GitHub Copilot CLI は、GitHub がホストするモデルルーティングを使用する代わりに、独自のモデルプロバイダーを接続したり、完全にローカルなモデルを実行したりできるようになりました。これにより、既にお支払い中のモデルやプロバイダーを利用したり、エアギャップ環境で運用したり、LLM の支出を直接管理したりできる一方で、これまでと同じエージェント型ターミナルエクスペリエンスを維持できます。

任意のモデルプロバイダーに接続

Copilot CLI を起動する前に環境変数をいくつか設定するだけで、Azure OpenAI、Anthropic、またはあらゆる OpenAI互換エンドポイントを使用するように構成できます。これは、OpenAI や Azure OpenAI などのリモートサービスだけでなく、Ollama、vLLM、Foundry Local などのローカルで実行するモデルでも機能します。設定手順については、「GitHub Copilot CLI で独自の LLM モデルを使用する」を参照してください。

エアギャップ環境のためのオフラインモード

COPILOT_OFFLINE=true を設定すると、Copilot CLI が GitHub のサーバーに接続することを防止できます。オフラインモードでは、すべてのテレメトリが無効化され、CLI は設定したプロバイダーとのみ通信します。ローカルモデルと組み合わせることで、完全にエアギャップ化された開発ワークフローが実現します。詳細については、「オフラインモードでの実行」を参照してください。

GitHub 認証がオプションに

独自のモデルプロバイダーを使用する場合、GitHub 認証は不要です。プロバイダーの認証情報だけで、すぐに Copilot CLI の使用を開始できます。さらに GitHub にもサインインすれば、両方の利点を享受できます。AI 応答にはご希望のモデルを使用しつつ、/delegate コマンド、GitHub Code Search、GitHub MCPサーバーなどの機能にもアクセスできるようになります。詳細については、「認証なしでの使用」を参照してください。

知っておくべきこと

  • 使用するモデルは、ツール呼び出しとストリーミングをサポートしている必要があります。最良の結果を得るには、少なくとも 128k トークンのコンテキストウィンドウを持つモデルを使用してください。
  • 組み込みのサブエージェント(explore、task、code-review)は、自動的に設定したプロバイダー構成を継承します。
  • プロバイダー構成が無効な場合、Copilot CLI は具体的な対処方法を示すエラーメッセージを表示します。GitHub ホスト型モデルへ黙ってフォールバックすることはありません。
  • ターミナル内で直接クイックセットアップ手順を確認するには、copilot help providers を実行してください。
  • GitHub Community でディスカッションに参加しましょう。

この投稿「Copilot CLI now supports BYOK and local models」は、The GitHub Blog で最初に公開されました。

他のツール

すべてのツールを見る →
Copilot CLIがBYOKとローカルモデルをサポート|GitHub Copilot | AIニュース