Перейти к основному содержанию
— cerebras (рекомендуется) cerebras — провайдер по умолчанию. он сочетает:
  • бесплатный доступ к api без привязки карты
  • быструю инференцию 3,000+ токенов/с
  • мощные модели вроде gpt-oss-120b с контекстом 128k
1

создайте аккаунт cerebras

зайдите на cloud.cerebras.ai и зарегистрируйтесь бесплатно.
2

сгенерируйте api ключ

после входа откройте раздел api keys и создайте новый ключ. скопируйте его.
3

вставьте в layersense

откройте настройки layersense → вкладка api → вставьте ключ в поле “api key”.
4

выберите модель

рекомендуемые модели:
  • gpt-oss-120b — лучшее качество, контекст 128k, 3,000+ tok/s
  • llama-3.3-70b — сбалансированное качество, ~2,100 tok/s
  • qwen-3-32b — быстрый и экономичный, ~2,600 tok/s
бесплатный уровень cerebras щедрый; при превышении лимита плагин автоматически повторит запрос с паузой.
в плагине есть встроенный стартовый ключ с лимитами. если он перестал отвечать или нужен больший запас запросов, сгенерируйте свой ключ по шагам ниже и вставьте его в настройках: настройки → вкладка api → провайдер → поле api key.
— google gemini (бесплатно) у google есть бесплатный уровень для gemini.
1

получите api ключ

зайдите на aistudio.google.com и создайте api ключ.
2

настройте layersense

настройки → вкладка api → провайдер: google gemini → вставьте ключ.
3

выберите модель

  • gemini-3-pro — самая новая и умная (preview)
  • gemini-2.5-flash — лучшая цена/скорость, контекст 1M
  • gemini-2.5-pro — продвинутая модель рассуждений
— openrouter openrouter объединяет нескольких провайдеров и даёт доступ к разным моделям, включая бесплатные.
1

создайте аккаунт

зайдите на openrouter.ai и зарегистрируйтесь.
2

получите api ключ

найдите api ключ в панели управления.
3

настройте layersense

настройки → вкладка api → провайдер: openrouter → вставьте ключ.
4

используйте бесплатные модели

ищите модели с тегом :free, например:
  • mistralai/devstral-2512:free — 123b, заточенная под код
  • meta-llama/llama-3-8b-instruct:free — сбалансированная универсальная
— local (lm studio) запускайте модели на своём компьютере — максимум приватности и отсутствие лимитов.
1

скачайте lm studio

скачайте на lmstudio.ai. доступно для windows, mac и linux.
2

загрузите модель

в lm studio найдите и загрузите модель. рекомендации:
  • qwen 2.5 (разные размеры)
  • llama 3 8b
  • mistral 7b
3

запустите локальный сервер

в lm studio перейдите на вкладку “local server” и нажмите start. endpoint по умолчанию http://127.0.0.1:1234/v1/chat/completions.
4

настройте layersense

настройки → вкладка api → провайдер: local (lm studio) → убедитесь, что endpoint совпадает с сервером lm studio.
для быстрой инференции локальным моделям нужен хороший gpu. на cpu будет работать медленнее.
— платные провайдеры если у вас уже есть api ключи платных провайдеров:
провайдернастройкарекомендованные модели
openaiвставьте ключ, выберите провайдер “openai”gpt-5.1 (лучшая логика), gpt-5-nano (самый доступный), gpt-4.1-mini
anthropicвставьте ключ, выберите провайдер “anthropic”claude-sonnet-4-5 (баланс), claude-haiku-4-5 (максимум скорости), claude-opus-4-5 (самая мощная)
— какой провайдер выбрать?
ваш сценарийрекомендуемый провайдер
нужен бесплатный и быстрый стартcerebras с gpt-oss-120b
важна приватность без компромиссовlocal с lm studio
уже есть ключи openai/anthropicоставайтесь на своём провайдере
нужны топовые рассужденияgoogle gemini с gemini-3-pro
хочется экспериментировать с моделямиopenrouter