Модуль 2 · Раздел 1

Три слоя: модель,
провайдер, интерфейс

Главная путаница при начале работы с LLM — смешивать эти три вещи в одну. Разберём раз и навсегда

Когда вы открываете ChatGPT или Claude — вам кажется, что это одна штука. На самом деле это три отдельных слоя, каждый из которых можно заменить независимо. Понимание этого даёт свободу выбора и убирает «магию».

3
Интерфейс / Инструмент
Как вы взаимодействуете с моделью
Claude App · ChatGPT · VS Code / Cursor · CLI · API напрямую

Это то, что вы видите и с чем работаете. Интерфейс принимает ваш текст, отправляет запрос к провайдеру и показывает ответ. Один и тот же Claude Sonnet 4.6 вы можете вызвать через браузер, VS Code, мобильное приложение или написав две строчки Python.

Выбор интерфейса влияет на удобство и возможности, но не на саму модель. В VS Code вы можете давать модели прямой доступ к файлам проекта — в браузерном чате нет.

2
Провайдер
Кто запускает модель и выставляет счёт
Anthropic · OpenAI · Google · OpenRouter · Azure · Ollama (локально)

Провайдер — это компания или система, которая хранит веса модели, запускает инференс на своих серверах и даёт вам API. Именно провайдер выставляет счёт за токены, обеспечивает uptime и устанавливает политику работы с данными.

Одну и ту же модель могут предоставлять несколько провайдеров: GPT-4o доступен через OpenAI напрямую, через Azure, через OpenRouter. Цена и условия могут отличаться. OpenRouter — агрегатор, который даёт единый API к 300+ моделям от разных провайдеров.

1
Модель
Нейросеть с весами — «мозг»
Claude Sonnet 4.6 · GPT-5.4 · Gemini 3.1 Pro · DeepSeek V3.2 · Llama 3.3

Это собственно нейронная сеть: миллиарды чисел (весов), которые были обучены на данных. Модель определяет, насколько умные ответы вы получаете. Одна модель фиксирована — вы не можете изменить её веса простым запросом.

Модели различаются по размеру (7B, 70B, 1T параметров), специализации (код, рассуждение, мультимодальность), размеру контекстного окна и дате среза знаний.

Ключевой вывод: Claude App = интерфейс (Anthropic) + провайдер (Anthropic) + модель (Claude Sonnet 4.6). Но вы можете использовать ту же модель через VS Code или CLI, или взять GPT-5.4 через тот же Claude Code, подключив OpenAI API.
🎮 Закрепление: сопоставьте пример с уровнем
Примеры
Claude.ai в браузере
OpenRouter
DeepSeek V3.2
Azure OpenAI
Cursor (IDE)
Gemma 4 31B
Уровни
🧠 Модель
☁️ Провайдер
🖥️ Интерфейс
Раздел 2

Обзор инструментов

Что существует, чем отличается, когда что использовать

Экосистема инструментов выросла быстро. Разберём её по категориям — от простейшего чата до автономных агентов, которые работают без вашего участия.

Claude App
VS Code — экосистема
CLI-агенты
Автономные агенты
API / OpenRouter
💬
Claude App
Интерфейс · claude.ai · Desktop · Mobile

Все сотрудники. Не требует технических знаний. Лучший старт для большинства задач.

ПЛЮСЫ
  • Не требует установки — работает в браузере
  • Загрузка файлов (PDF, изображения, таблицы)
  • Projects — постоянный контекст для команд
  • Встроенная память между сессиями
  • Готовые интеграции: поиск, генерация кода
ОГРАНИЧЕНИЯ
  • Нет автоматизации без ручного ввода
  • Лимиты сообщений на бесплатном тарифе
  • Меньше гибкости по выбору модели и провайдера
Написание текстов Анализ документов Q&A по файлам Брейнштормы Переводы Работа с файловой системой
🧑‍💻
VS Code — платформа и экосистема
IDE · Бесплатно · Расширяется плагинами и CLI

VS Code — это платформа, а не просто редактор. В неё встраиваются три типа LLM-инструментов одновременно, и именно их комбинация даёт максимум.

1 · Встроенный GitHub Copilot / официальные расширения

Инлайн-подсказки, чат, автодополнение прямо в редакторе. Простейший вход — установил расширение и работает.

Автодополнение кодаИнлайн-чатОбъяснение функций
2 · Агентские плагины: Roo Code, Cline и аналоги

Это уже не просто "спросить модель". Roo Code и Cline дают агенту полный доступ к проекту: читать/писать файлы, запускать команды, работать в цикле. Можно тонко настраивать пайплайны, роли (architect/coder/reviewer), контекстные правила через .clinerules / .roo. Поддерживают любую модель через OpenRouter — не привязаны к одному провайдеру.

Roo CodeClineАгентные пайплайныСмена модели на летуТонкий тюнинг
3 · CLI-агенты как расширения VS Code

Большинство CLI-агентов имеют VS Code интеграцию — запускаются прямо из встроенного терминала или через отдельный extension. Вы получаете и IDE-удобство, и мощь CLI.

claude-code opencode qwen-code gemini-cli mistral-vibe
💡 А Cursor?
Cursor — это форк VS Code со встроенными LLM-функциями и собственным реселлом провайдеров. Комбайн «всё в одном» за фиксированную плату (~$20/мес). Удобно для быстрого старта, но вы платите за то, что в VS Code можно собрать самостоятельно с бóльшим контролем над моделями и провайдерами.
Написание и рефакторинг кода Агентные задачи в репозитории MCP-интеграции из IDE Настроенные пайплайны Смена модели без смены инструмента
⌨️
CLI-агенты
Терминал · Автоматизация · MCP · CI/CD

CLI-агент запускается в терминале внутри вашего проекта. Он видит файлы, выполняет команды, вызывает MCP-инструменты. Именно здесь начинается автоматизация без написания кода.

Агент Модель Установка Заметки
claude-code Claude (Anthropic) npm i -g @anthropic-ai/claude-code MCP из коробки, VS Code extension
opencode OpenRouter / любая npm i -g opencode-ai Open source, свободный выбор модели
qwen-code Qwen (Alibaba) npm i -g qwen-code Форк claude-code под Qwen
gemini-cli Gemini (Google) npm i -g @google/gemini-cli 1M контекст, мультимодальный
mistral-vibe Mistral pip install mistral-vibe Европейский провайдер, GDPR
ПЛЮСЫ CLI
  • Запускается прямо в проекте — видит все файлы
  • Выполняет bash, git, npm и любые команды
  • MCP-интеграции: Linear, Notion, Slack, GitHub
  • Автоматизация через скрипты и cron без GUI
  • Идеально для CI/CD — без интерфейса
ОГРАНИЧЕНИЯ
  • Нужен терминал и базовые знания CLI
  • Требует авторизации — API-ключ или OAuth (корп. подписка)
  • Выше порог входа для нетехнических ролей
Автоматизация рутины Создание тикетов в Linear Работа с Notion/Slack Скрипты без опыта CI/CD задачи
🤖
Автономные агенты
OpenClaw · Hermes · и другие · Работают без вашего участия

Отдельная категория: инструменты, которые не встраиваются в IDE, а работают как самостоятельные агентские системы. Они принимают высокоуровневую задачу и выполняют её — сами планируя шаги, вызывая инструменты, итерируя.

OpenClaw
open source

Агентный фреймворк с открытым кодом. Поддерживает любые модели, сложные multi-agent пайплайны, инструменты. Используется как основа в нескольких продакшен-проектах. Хорошо интегрируется с MCP.

Hermes
agent orchestration

Оркестратор агентов с акцентом на надёжность и долгие задачи. Поддерживает чекпоинты, логирование, восстановление после ошибок — важно для production.

Ключевое отличие от CLI-агентов

CLI-агент — это интерактив: вы рядом, даёте команды. Автономный агент — это запустил и ушёл: задача выполняется пока вас нет, с логами и уведомлениями по завершении.

⚠️ Важно для безопасного использования
Автономные агенты с доступом к реальным системам (файлы, API, базы данных) — это серьёзный уровень. Подробнее о безопасном использовании разберём в Модуле 4.
Фоновые долгие задачи Multi-agent пайплайны Автоматизация без участия Production workflows
🔌
API напрямую / OpenRouter
Разработка · Встройка в продукты · Агрегатор
API напрямую
  • Полный контроль над запросом и параметрами
  • Системный промпт, инструменты, батчинг
  • Встраивается в любой продукт
  • Batch API для массовой обработки
OpenRouter
  • Один ключ — 300+ моделей (Claude, GPT, DeepSeek…)
  • Бесплатные модели: Gemma 4, Nemotron
  • Авто-роутинг к лучшей/дешёвой модели
  • Единый биллинг вместо 5 аккаунтов
Свои инструменты Массовая обработка Встройка в продукт Свои MCP-серверы Сравнение моделей Бесплатные эксперименты Оптимизация стоимости Фоллбек при падении провайдера
Раздел 3

Как устроен запрос

От нажатия Enter до появления ответа — что происходит за кулисами

Каждый раз, когда вы отправляете сообщение, запускается цепочка из нескольких шагов. Понимание этой цепочки объясняет, почему одни вещи работают именно так, а другие не работают вообще.

шаг 1
Формирование контекста
Интерфейс собирает: системный промпт + всю историю диалога + ваш новый запрос
→ system: "Ты полезный ассистент..."
→ user: [история]
→ user: "Ваш вопрос"
шаг 2
HTTP-запрос к провайдеру
Интерфейс отправляет POST-запрос на API провайдера с токенизированным контекстом
→ POST api.anthropic.com/v1/messages
→ Authorization: Bearer sk-ant-...
шаг 3
Инференс на GPU-кластере
Провайдер запускает токены через миллиарды параметров модели. Генерируется ответ — токен за токеном
→ ~100-500 токенов/сек
→ стриминг или ожидание
шаг 4
Передача ответа обратно
Провайдер возвращает ответ через стриминг (буква за буквой) или одним блоком
→ {"content": "...", "usage": {"input_tokens": 124, "output_tokens": 312}}
шаг 5
Отображение в интерфейсе
Интерфейс рендерит markdown, показывает ответ, добавляет в историю — и цикл готов к следующему сообщению
→ токены входа + выхода → стоимость
→ ответ добавлен в контекст
▶ Анимировать
↺ Сбросить
Нажмите ▶ чтобы пройти по шагам
Почему это важно: каждый шаг 1–5 происходит заново при каждом сообщении. Модель не «думает» между сообщениями — она каждый раз читает весь контекст с нуля. Отсюда и ограничения: нет памяти, растёт контекст, растёт стоимость.
Раздел 4

Уход от «просто чата»

Чат — это один режим из многих. Разберём, что открывается дальше

Большинство людей использует LLM как улучшенный поиск: написали вопрос — получили ответ — скопировали. Это рабочий подход, но он оставляет 90% возможностей за бортом.

💬
Режим: чат с вопросами
Вы → вопрос → модель → ответ. Вы копируете текст руками. Один раз, без автоматизации. Большинство используют только это.
🤖
Режим: агент с инструментами
Вы → задача → агент читает файлы, вызывает API, пишет код, создаёт тикеты, делает коммит. Здесь начинается настоящая автоматизация.

Переход от чата к агентному режиму — это главный сдвиг. Он происходит когда:

📂
Модель получает доступ к файлам и системе
Claude Code в терминале — модель видит ваш проект, читает файлы, запускает команды. Вы не копируете код вручную.
🔧
Модель вызывает внешние инструменты (MCP)
«Создай задачу в Linear по результатам этого теста» — модель сама вызывает Linear API, заполняет поля, назначает исполнителя.
🔄
Модель работает в цикле, а не за один шаг
Агент берёт задачу, декомпозирует её, выполняет шаги, проверяет результат, корректирует — и так пока задача не выполнена.
Практический пример из вашей работы: «Возьми все упавшие тесты из последнего CI-прогона, создай Linear-тикеты с описанием ошибки, приоритетом P1 и назначь на команду QA» — один запрос в Claude Code, 0 ручной работы.
Раздел 5

Как выбрать инструмент

Практическое дерево решений для вашей роли и задачи

Правильный выбор инструмента зависит от двух вещей: что вы хотите сделать и какой у вас технический уровень. Ответьте на вопросы — получите рекомендацию.

Что вы хотите сделать прямо сейчас?
A
Написать текст, проанализировать документ, задать вопрос
B
Автоматизировать рабочую задачу, работать с файлами
C
Написать или отладить код
D
Встроить LLM в свой инструмент или продукт
Не нужно выбирать одно. Типичный сценарий: Claude App для быстрых задач и общения, Claude Code когда нужна автоматизация, Cursor для активной разработки. Инструменты дополняют, а не заменяют друг друга.
🆕
Начинаете с нуля
Claude App → освойте базово → затем Claude Code CLI → откроете весь потенциал автоматизации
🔨
Разработчик
Cursor или VS Code + MCP → Claude Code для агентных задач → API для своих инструментов
📊
QA / PM / Ops
Claude App для ежедневных задач → Claude Code с MCP для работы с Linear/Notion без кода
Раздел 6

Проверка знаний

5 вопросов по модулю 2
1. Вы хотите использовать Claude Sonnet 4.6, но через VS Code вместо браузера. Что при этом меняется?
A
Меняется модель — в VS Code стоит другая версия Claude
B
Меняется только интерфейс — модель и провайдер (Anthropic) остаются теми же
C
Меняется провайдер — VS Code использует Microsoft Azure
D
Меняется всё — это совершенно другой продукт
2. Коллега говорит: «Я использую Claude через VS Code». Что это означает?
A
Он установил отдельную версию Claude, которая работает только в VS Code
B
VS Code — это его интерфейс, а модель и провайдер (Anthropic) остаются теми же
C
Он пишет код на языке Claude
D
Он использует локальную копию модели
3. Что происходит с историей вашего диалога при каждом новом сообщении?
A
Модель хранит историю в памяти и дополняет её
B
История отправляется как часть каждого нового запроса — модель читает всё заново
C
История сжимается и хранится на серверах провайдера отдельно
D
Только последние 5 сообщений передаются в запросе
4. Вы хотите автоматически создавать Linear-тикеты из упавших тестов. Какой инструмент подойдёт лучше всего?
A
Claude App в браузере — скопировать и вставить результаты вручную
B
ChatGPT — он умеет работать с Linear
C
Claude Code CLI с MCP-интеграцией Linear — агент сам прочитает вывод и создаст тикеты
D
VS Code — достаточно расширения
5. Зачем нужен OpenRouter, если у Anthropic и OpenAI уже есть свои API?
A
OpenRouter быстрее — серверы расположены ближе
B
Один API-ключ и биллинг для 300+ моделей от разных провайдеров, включая бесплатные
C
OpenRouter хранит данные безопаснее
D
Там есть модели, которых нет нигде больше