- бесплатный доступ к api без привязки карты
- быструю инференцию 3,000+ токенов/с
- мощные модели вроде gpt-oss-120b с контекстом 128k
1
создайте аккаунт cerebras
зайдите на cloud.cerebras.ai и зарегистрируйтесь бесплатно.
2
сгенерируйте api ключ
после входа откройте раздел api keys и создайте новый ключ. скопируйте его.
3
вставьте в layersense
откройте настройки layersense → вкладка api → вставьте ключ в поле “api key”.
4
выберите модель
рекомендуемые модели:
gpt-oss-120b— лучшее качество, контекст 128k, 3,000+ tok/sllama-3.3-70b— сбалансированное качество, ~2,100 tok/sqwen-3-32b— быстрый и экономичный, ~2,600 tok/s
бесплатный уровень cerebras щедрый; при превышении лимита плагин автоматически повторит запрос с паузой.
в плагине есть встроенный стартовый ключ с лимитами. если он перестал отвечать или нужен больший запас запросов, сгенерируйте свой ключ по шагам ниже и вставьте его в настройках: настройки → вкладка api → провайдер → поле api key.
1
получите api ключ
зайдите на aistudio.google.com и создайте api ключ.
2
настройте layersense
настройки → вкладка api → провайдер: google gemini → вставьте ключ.
3
выберите модель
gemini-3-pro— самая новая и умная (preview)gemini-2.5-flash— лучшая цена/скорость, контекст 1Mgemini-2.5-pro— продвинутая модель рассуждений
1
создайте аккаунт
зайдите на openrouter.ai и зарегистрируйтесь.
2
получите api ключ
найдите api ключ в панели управления.
3
настройте layersense
настройки → вкладка api → провайдер: openrouter → вставьте ключ.
4
используйте бесплатные модели
ищите модели с тегом
:free, например:mistralai/devstral-2512:free— 123b, заточенная под кодmeta-llama/llama-3-8b-instruct:free— сбалансированная универсальная
1
скачайте lm studio
скачайте на lmstudio.ai. доступно для windows, mac и linux.
2
загрузите модель
в lm studio найдите и загрузите модель. рекомендации:
- qwen 2.5 (разные размеры)
- llama 3 8b
- mistral 7b
3
запустите локальный сервер
в lm studio перейдите на вкладку “local server” и нажмите start. endpoint по умолчанию
http://127.0.0.1:1234/v1/chat/completions.4
настройте layersense
настройки → вкладка api → провайдер: local (lm studio) → убедитесь, что endpoint совпадает с сервером lm studio.
для быстрой инференции локальным моделям нужен хороший gpu. на cpu будет работать медленнее.
| провайдер | настройка | рекомендованные модели |
|---|---|---|
| openai | вставьте ключ, выберите провайдер “openai” | gpt-5.1 (лучшая логика), gpt-5-nano (самый доступный), gpt-4.1-mini |
| anthropic | вставьте ключ, выберите провайдер “anthropic” | claude-sonnet-4-5 (баланс), claude-haiku-4-5 (максимум скорости), claude-opus-4-5 (самая мощная) |
| ваш сценарий | рекомендуемый провайдер |
|---|---|
| нужен бесплатный и быстрый старт | cerebras с gpt-oss-120b |
| важна приватность без компромиссов | local с lm studio |
| уже есть ключи openai/anthropic | оставайтесь на своём провайдере |
| нужны топовые рассуждения | google gemini с gemini-3-pro |
| хочется экспериментировать с моделями | openrouter |