🤖 24 AI
🟡 🏥 实践应用 2026年4月18日星期六 · 2 分钟阅读

GitHub Copilot CLI 推出自动模型选择:付费用户享受 10% 倍率折扣

编辑插图:终端中箭头分叉指向自动路由中不同 AI 模型

为什么重要

GitHub 于 2026 年 4 月 17 日宣布,Copilot CLI 工具的 AI 自动模型选择功能已面向所有 Copilot 计划正式发布(GA)。该系统根据管理员策略,将请求动态路由到 GPT-5.4、GPT-5.3-Codex、Sonnet 4.6 和 Haiku 4.5 等模型。付费用户在使用 Auto 模式时,可享受模型倍率 10% 的折扣——原本 1x 倍率的模型仅消耗 0.9 个 Premium 请求。

GitHub 于 2026 年 4 月 17 日 在其 Changelog 中宣布,GitHub Copilot CLI 工具的自动模型选择(Auto Model Selection) 功能正式全面发布(GA)。该功能现已包含在所有 Copilot 计划中,旨在降低命令行工作的摩擦——用户无需为每个请求手动在 Sonnet、Haiku 或 GPT 模型之间进行选择。

有什么变化?

此前,Copilot CLI 用户必须明确选择执行请求的模型。新功能引入了动态路由——系统分析请求并从可用的模型池中自动选择最合适的模型。GitHub 在公告中举例列出了 GPT-5.4GPT-5.3-CodexSonnet 4.6Haiku 4.5。具体模型取决于用户的订阅计划以及组织管理员设置的策略。

除了易用性之外,Auto 模式还有助于缓解速率限制——如果某个前沿模型过载,请求会自动路由到另一个,而非返回错误。透明度得以保持:Copilot CLI 清晰显示每个请求由哪个模型执行,用户随时可以退出 Auto 模式并明确指定特定模型。

为什么这很重要?

公告中最值得关注的部分是计费机制。GitHub 为所有付费用户提供使用 Auto 模式时 10% 的模型倍率折扣。公式很简单:通常价值 1x Premium 请求的模型,在 Auto 模式下计为 0.9 个 Premium 请求。GitHub 明确指出,折扣目前仅适用于倍率在 0x 到 1x 之间的模型——覆盖了大多数 Copilot 模型,但不包括倍率更高的最顶级前沿版本。

自动路由与 10% 折扣的组合表明,GitHub 在积极激励用户将模型选择权交给系统。这是一个合理的策略——Auto 路由使 GitHub 能够在不同模型之间实现更好的负载均衡,并更好地利用各合作伙伴(Anthropic、OpenAI)的推理容量。

下一步是什么?

该功能已对所有 Copilot CLI 用户开放,无需额外操作——用户只需运行最新版本的 CLI 工具即可。组织管理员可以自定义哪些模型包含在 Auto 池中。GitHub 在 2026 年 4 月已为 github.com 平台上的编码智能体(Claude 和 Codex)推出了类似功能;此次扩展至 CLI,实现了对所有 Copilot 界面的全面覆盖。

🤖

本文由人工智能基于一手来源生成。