GitHub вывел авто-выбор модели в Copilot для JetBrains IDEs в режим общей доступности. Функция сама подбирает модель под вашу подписку и политики организации, а расход «премиальных запросов» считается по фактически выбранной модели — с отдельной скидкой при работе в режиме auto.
GitHub расширил возможности Copilot в JetBrains IDEs: режим auto model selection теперь доступен всем планам и помогает не думать о том, какую именно модель включить для очередной задачи. Идея простая: вы продолжаете задавать вопросы и просить помощи в коде, а Copilot сам выбирает модель, ориентируясь на доступность и производительность в момент запроса.
Как работает «auto» и что именно меняется
Режим auto подбирает модель динамически. Это сделано, чтобы сохранять доступ к «любимым» моделям и одновременно снижать риск упереться в ограничения по скорости или доступности. В описании обновления GitHub отмечает, что авто-режим может маршрутизировать запросы к моделям вроде GPT-5.4, GPT-5.3-Codex, Sonnet 4.6 и Haiku 4.5 — при этом набор моделей зависит от вашего плана и админских политик, и со временем может меняться.
- Прозрачность: какой именно моделью обработан ответ, можно увидеть, наведя курсор на ответ модели.
- Контроль остаётся у пользователя: в любой момент можно переключиться между auto и конкретной моделью вручную.
- Соблюдение политик: auto учитывает настройки, которые администраторы задали для моделей в организации.
Почему это полезно обычному разработчику
Если вы работаете в JetBrains IDE и периодически переключаете модели «на глаз» (например, чтобы получить более точный ответ или ускорить генерацию), auto снимает часть рутины. На практике это особенно заметно в двух сценариях:
- Короткие вопросы и правки: когда важнее скорость отклика, чем максимальная глубина рассуждений.
- Длинные сессии с контекстом: когда вы не хотите прерываться на выбор модели и проверку, не «упёрлись» ли вы в лимит.
В обоих случаях выигрывает поток работы: вы меньше отвлекаетесь на настройки и больше времени проводите в задаче.
Как считается расход премиальных запросов
GitHub отдельно поясняет биллинг для auto: расход «премиального» лимита считается по той модели, которую auto фактически выбрал. Сейчас auto ограничен моделями с мультипликаторами от 0x до 1x (в пределах перечисленных выше). Для платных подписчиков заявлена скидка 10% на мультипликатор при использовании auto: например, если выбранная модель имеет коэффициент 1x, будет списано 0.9 премиального запроса вместо 1.
Что дальше
В текущем виде auto выбирает «доступные и качественные» модели. Следующий шаг, который обозначен GitHub, — сделать режим умнее: чтобы Copilot мог подбирать модель не только по доступности, но и по сложности конкретной задачи (условно, разный подход для быстрого уточнения по API и для более тяжёлого дебага).
