Перейти к основному содержимому

Настрой AI-кодинг окружение

Зачем это нужно

На ближайших семинарах мы будем активно работать с AI-инструментами для кодинга. Чтобы не тратить время на курсе — настрой всё заранее. Цель: попробовать хотя бы 2–3 разных инструмента и понять, как это вообще работает.

Что такое «terminal AI coding»?

Это не просто «спросить ChatGPT». Это класс инструментов, где AI работает агентом прямо в твоём проекте: читает файлы, пишет код, запускает тесты, итерирует — всё из терминала или редактора.

Самые известные примеры: Claude Code, Cursor, Aider, Qwen Code, OpenCode.

Часть 1. Инструменты с интерфейсом (проще начать)

Cursor

IDE на базе VS Code с встроенным AI.

  • Сайт: cursor.com
  • Есть бесплатный tier (лимиты на запросы)
  • Поддерживает подключение своих API-ключей (OpenRouter и др.)
  • Хорошо для тех, кто уже сидит в VS Code

Windsurf (от Codeium)

  • Сайт: windsurf.com
  • Аналог Cursor, тоже есть бесплатный tier

Часть 2. Terminal-first инструменты

Claude Code

Официальный CLI-агент от Anthropic.

  • Репо с ресурсами и примерами: everything-claude-code
  • Работает через API Anthropic
  • Есть бесплатный доступ через Max-план claude.ai ($200/мес) — не дёшево, но если уже платишь

Установка:

Установка Claude Code
npm install -g @anthropic-ai/claude-code

После установки запусти claude в папке проекта. Потребуется API-ключ Anthropic или подписка Max.

OpenCode

Открытый аналог Claude Code, работает с любой моделью.

  • Сайт: opencode.ai
  • Поддерживает OpenRouter, Ollama, любые OpenAI-совместимые API
  • Рекомендую как стартовую точку — гибкий и бесплатный при использовании своих ключей

Qwen Code

Форк Claude Code от команды Alibaba, оптимизирован под модели Qwen.

  • Репо: qwen-code
  • Модели Qwen доступны бесплатно (см. ниже)

Aider

Старейший terminal-агент, очень зрелый.

  • Сайт: aider.chat
  • Поддерживает десятки провайдеров

Часть 3. Как получить бесплатный доступ к моделям

Подробный список

Список бесплатных LLM API-ресурсов: free-llm-api-resources

Видеообзор (на русском): youtube

GLM-5 бесплатно на Modal (до 30 апреля 2026)

GLM-5 — новая открытая модель от Z.ai (744B параметров, MoE), по уровню агентского кодинга сопоставимая с Claude Opus 4.5. Modal дал бесплатный доступ к ней через OpenAI-совместимый API до конца апреля.

Как подключиться:

  1. Зайди на modal.com/glm-5-endpoint
  2. Войди в Modal-аккаунт (бесплатный достаточно) и сгенерируй токен
  3. Используй endpoint:
Проверка подключения
curl -X POST "https://api.us-west-2.modal.direct/v1/chat/completions" \
-H "Authorization: Bearer $MODAL_RESEARCH_API_KEY" \
-H "Content-Type: application/json" \
-d '{"model": "zai-org/GLM-5-FP8", "messages": [{"role": "user", "content": "Write a hello world in Python"}]}'

Подключить к OpenCode (добавить в opencode.json):

opencode.json
{
"providers": {
"modal": {
"name": "Modal GLM-5",
"baseUrl": "https://api.us-west-2.modal.direct/v1",
"apiKey": "YOUR_MODAL_TOKEN"
}
}
}

Подключить к Claude Code — через LiteLLM прокси (подробнее в блоге Modal).

Ограничение

1 одновременный запрос. Лимитов по токенам нет — идеально для личного использования в coding-агентах.

OpenRouter — агрегатор всех провайдеров

  • Сайт: openrouter.ai
  • Один API-ключ — доступ к сотням моделей
  • У многих моделей есть бесплатный вариант (суффикс :free, лимиты ~20 запросов/мин)
  • Лучшие бесплатные модели для кодинга прямо сейчас:
    • qwen/qwen3-coder — Qwen3 Coder 480B A35B, лучший бесплатный для кода
    • deepseek/deepseek-r1-0528:free — отлично для reasoning и алгоритмов
    • qwen/qwen3-235b-a22b:free — большая MoE-модель общего назначения
    • qwen/qwen3-next-80b-a3b:free — быстрый, хорош для итеративной работы
  • Актуальный список бесплатных моделей

Прямые провайдеры с бесплатными тирами

ПровайдерЧто бесплатноСсылка
Google AI StudioGemini 3.1 Flash / Proaistudio.google.com
GroqLlama, Qwen (очень быстро)console.groq.com
MistralMistral Smallconsole.mistral.ai
CohereCommand Rdashboard.cohere.com
CerebrasLlama 4 Scoutcloud.cerebras.ai
Qwen / DashScopeQwen-моделиdashscope.aliyuncs.com

Запуск локально (если есть GPU или достаточно RAM)

Лучший вариант сейчас — Qwen3.5 + llama.cpp + Unsloth Dynamic GGUFs.

Гайды: unsloth.ai/docs/models/qwen3.5 · unsloth.ai/docs/basics/claude-code

Внимание

Qwen3.5 GGUFs не работают в Ollama. Используй только llama.cpp-совместимые бэкенды.

Сколько памяти нужно (RAM + VRAM суммарно):

Модель4-bit8-bitРекомендация
Qwen3.5-9B6.5 GB13 GBНоутбук без GPU
Qwen3.5-27B17 GB30 GBMac 24GB / RTX 3090
Qwen3.5-35B-A3B (MoE)22 GB38 GBMac 24GB / RTX 4090 — быстрее 27B
Qwen3.5-122B-A10B (MoE)70 GBНесколько GPU или Mac Studio

Шаг 1 — Собери llama.cpp:

Сборка llama.cpp
apt-get install build-essential cmake curl libcurl4-openssl-dev -y
git clone https://github.com/ggml-org/llama.cpp
cmake llama.cpp -B llama.cpp/build \
-DBUILD_SHARED_LIBS=OFF -DGGML_CUDA=ON # поменяй на OFF если нет GPU
cmake --build llama.cpp/build --config Release -j \
--target llama-cli llama-server
cp llama.cpp/build/bin/llama-* llama.cpp

Шаг 2 — Запусти модель одной командой (llama.cpp скачает сам):

Запуск 35B-A3B — быстрый MoE, влезает в 24GB
export LLAMA_CACHE="unsloth/Qwen3.5-35B-A3B-GGUF"
./llama.cpp/llama-server \
-hf unsloth/Qwen3.5-35B-A3B-GGUF:UD-Q4_K_XL \
--alias "unsloth/Qwen3.5-35B-A3B" \
--temp 0.6 --top-p 0.95 --top-k 20 --min-p 0.0 \
--ctx-size 32768 --port 8001
Для слабого железа — модель 9B
export LLAMA_CACHE="unsloth/Qwen3.5-9B-GGUF"
./llama.cpp/llama-server \
-hf unsloth/Qwen3.5-9B-GGUF:UD-Q4_K_XL \
--alias "unsloth/Qwen3.5-9B" \
--temp 0.6 --top-p 0.95 --top-k 20 --min-p 0.0 \
--ctx-size 32768 --port 8001
Режимы Qwen3.5

Qwen3.5 поддерживает два режима: thinking (рассуждает перед ответом) и non-thinking (быстрее).

  • Для кодинга в thinking-режиме: temp=0.6
  • Для non-thinking: добавь --chat-template-kwargs '{"enable_thinking":false}' и temp=0.7
  • У моделей 0.8B–9B thinking отключён по умолчанию — включить: --chat-template-kwargs '{"enable_thinking":true}'

Шаг 3 — Подключи Claude Code к локальному серверу:

Подключение Claude Code к llama.cpp
export ANTHROPIC_BASE_URL="http://localhost:8001"
export ANTHROPIC_API_KEY="sk-no-key-required"
claude --model unsloth/Qwen3.5-35B-A3B
Нет GPU?

Если GPU нет совсем — используй облачные бесплатные варианты (OpenRouter) вместо локального запуска.

Часть 4. Какие модели сейчас лучшие для кодинга

Актуальные бенчмарки (SWE-bench Verified, Aider Polyglot, LiveCodeBench) — по состоянию на март 2026:

МестоМодельДоступностьОсобенность
1Claude Opus 4.6 / Sonnet 4.6Платно (Anthropic API)Лучшие агентские задачи
2GPT-5.3 / GPT-5.3-CodexПлатно (OpenAI API)Codex заточен под код
3Gemini 3.1 ProБесплатно (AI Studio лимиты)Лучшее соотношение цена/качество
4GLM-5Платно (Z.ai) / ModalСильный агентский кодинг
5Qwen3 Coder (480B A35B)Бесплатно (DashScope, OpenRouter)Лучший бесплатный для кода
6DeepSeek V3.2 / R1Дёшево на OpenRouterОтличные open-source модели

Актуальные лидерборды:

Часть 5. Практическое задание

Минимум (обязательно)

  1. Зарегистрируйся на OpenRouter, получи API-ключ
  2. Установи любой terminal-агент (OpenCode или Aider — проще всего)
  3. Подключи к нему бесплатную модель через OpenRouter
  4. Запусти на любом своём проекте (даже учебном): попроси написать функцию, добавить тест, отрефакторить кусок кода

Плюс (если интересно)

  • Попробуй Cursor или Windsurf с бесплатным аккаунтом
  • Поставь Ollama локально, запусти qwen3:8b, сравни с облаком
  • Изучи репо everything-claude-code — там есть примеры, как настраивать агентские воркфлоу
На следующем семинаре

Каждый коротко расскажет: что поставил, что попробовал, что удивило или не зашло.

TL;DR — минимальный путь за 20 минут

Вариант 1: OpenCode
# 1. Установи OpenCode
npm install -g opencode-ai # или смотри docs на opencode.ai

# 2. Получи бесплатный ключ на openrouter.ai

# 3. Запусти в папке своего проекта
opencode
# Выбери провайдер → OpenRouter
# Вставь ключ
# Выбери модель → qwen/qwen3-coder
# Пиши задачи на естественном языке
Вариант 2: Aider
pip install aider-install && aider-install
aider --openrouter-api-key YOUR_KEY --model openrouter/qwen/qwen3-coder

Если что-то не получается — пиши в чат, разберёмся вместе.