Кейс: продакшен-сервис за 26 дней и $4.62 с DeepSeek Reasoner и .NET | AiManual
AiManual Logo Ai / Manual.
20 Фев 2026 Гайд

Как за 26 дней и $4.62 создать продакшен-сервис с помощью LLM: кейс на .NET с DeepSeek Reasoner

Реальный кейс создания бизнес-приложения с AI за 26 дней и $4.62. DeepSeek Reasoner, .NET, точные метрики токенов и экономии.

$4.62 за готовый бизнес-сервис. Шутка? Нет, математика

Когда я говорю клиентам, что их AI-сервис можно сделать за сумму меньше, чем обед в кафе, они думают, что я шучу. Показываю цифры: 26 дней разработки, 4 доллара 62 цента на AI-вызовы, 187 тысяч токенов. Тишина. Потом вопрос: "А где подвох?".

Подвоха нет. Есть DeepSeek Reasoner, который на февраль 2026 года остается самым дешевым способом получить reasoning-способности уровня GPT-4 за копейки. Есть .NET 9 с его AI-тулзами. И есть конкретный кейс — система анализа отзывов для e-commerce.

💡
Почему именно DeepSeek Reasoner в 2026: При цене $0.09 за миллион входных токенов и $0.36 за миллион выходных, он дешевле GPT-4o в 7 раз. Reasoner-версия умеет думать "шаг за шагом", что критично для бизнес-логики. И да, он понимает русский почти как родной.

Что мы строим и зачем это кому-то платить

Клиент — маркетплейс среднего размера. Проблема: 500+ отзывов в день, которые никто не читает. Нужно: автоматически выделять жалобы на доставку, хвалебные отзывы для соцсетей, технические проблемы с товаром.

Ручной анализ — 2 человека на полную ставку. Готовые SaaS-решения — от $500 в месяц с ограничением на 10 тысяч отзывов. Наш вариант: свой сервис, который стоит копейки на инфраструктуре и еще меньше на AI.

1 Стек: минимальный, но не примитивный

  • .NET 9 — потому что AI SDK от Microsoft уже встроен и работает без танцев с бубном
  • DeepSeek Reasoner API — не локально, хотя можно было бы. Но зачем, если API стоит $0.09?
  • PostgreSQL 17 — с векторами для эмбеддингов (на всякий случай)
  • Redis 8 — кэширование промптов и результатов
  • Docker — потому что продакшен должен быть воспроизводимым

Ошибка, которую все делают: Ставят локальную LLM "на всякий случай". Результат: сервер за $200 в месяц вместо API за $5. Если у вас нет специфичных требований к приватности или latency меньше 100ms — берите API. Подробнее о стратегиях развертывания.

2 Архитектура: где AI, а где обычный код

Главный секрет: LLM делает только то, что не может сделать обычный код. Не нужно отправлять в AI то, что можно решить регуляркой.

Что делает AI Что делает код Экономия токенов
Классификация тональности (позитив/негатив/нейтрал) Поиск ключевых слов ("доставка", "качество", "гарантия") ~40% токенов
Выделение конкретных проблем из жалоб Проверка наличия цифр (номера заказов, суммы) ~30% токенов
Генерация ответа для поддержки (шаблон) Подстановка данных клиента в шаблон ~60% токенов

Фильтр делегирования — это святое. Перед каждым вызовом DeepSeek Reasoner спрашиваешь: "А точно нельзя проще?". Часто оказывается, что можно. Чек-лист от инженера по фильтрации.

3 Промпт-инженерия: не искусство, а инженерия

Говорят, промпт-инженерия — это магия. Вранье. Это инженерия с метриками и A/B тестами.

Наш промпт для классификации отзывов прошел 14 итераций. Каждая итерация — замер точности на 100 отзывах и подсчет токенов. Разница между первой и финальной версией: точность +23%, токены -18%.

// Пример финального промпта в C#
var systemPrompt = @"Ты анализируешь отзывы покупателей.
Твои задачи:
1. Определи тональность: positive, negative, neutral
2. Выдели категории проблем: delivery, quality, price, other
3. Если negative - предложи тип ответа: apology, explanation, compensation

Правила:
- Будь кратким
- Используй только JSON
- Не добавляй пояснений

Формат ответа:
{
  "sentiment": "...",
  "categories": ["..."],
  "response_type": "..." | null
}";
💡
Почему JSON, а не текст: DeepSeek Reasoner отлично структурирует ответы. Парсинг JSON в C# — одна строка кода. Плюс экономия токенов: LLM не "размусоливает" ответ, а выдает чистые данные.

4 Кэширование: самый недооцененный способ экономии

Если у вас 500 отзывов в день, а уникальных фраз всего 50 — зачем каждый раз платить за токены? Кэшируйте результаты.

Наша стратегия:

  • Кэш на уровне промптов (хэш промпта → ответ)
  • TTL = 7 дней для тональности, 30 дней для категорий
  • Redis как кэш, PostgreSQL как persistent storage

Результат: из 500 daily запросов к DeepSeek Reasoner 300 попадают в кэш. Экономия: 60% стоимости API.

Цифры, которые заставят вашего CFO улыбнуться

Метрика Значение Комментарий
Общее время разработки 26 дней 1 разработчик, часть времени
Стоимость API-вызовов $4.62 За весь период разработки и тестов
Всего токенов 187,432 Входные + выходные
Средняя длина промпта 312 токенов После оптимизации
Точность классификации 94.7% На тестовой выборке 1000 отзывов
Ложные срабатывания 2.1% Критично низко для бизнеса
Стоимость в продакшене ~$12/месяц При 15к отзывов в месяц

Для сравнения: аналогичный сервис на GPT-4o стоил бы около $85 в месяц. Claude 3.5 Sonnet — около $120. DeepSeek Reasoner выигрывает не потому, что "лучше", а потому, что "достаточно хорошо и в 7 раз дешевле". Полный анализ стоимости DeepSeek vs конкуренты.

Где мы сэкономили, а где переплатили

Экономия была в трех местах:

  1. Выбор модели — DeepSeek Reasoner вместо GPT-4. Экономия: 85%
  2. Кэширование — Redis для повторяющихся запросов. Экономия: 60%
  3. Промпт-оптимизация — убрали всю воду из промптов. Экономия: 40% токенов

Переплатили здесь:

  • Первые 3 дня — пытались сделать "идеальный" промпт. Потом поняли: лучше работающий, чем идеальный
  • Избыточная инфраструктура — сначала поставили Kubernetes для сервиса, который обслуживает 10 RPS. Убрали, оставили Docker Compose

Ловушка, в которую попадают все: Начинают с локальной LLM "чтобы не платить за API". Забывают, что сервер для 7B-модели стоит $50 в месяц, а API-вызовы к DeepSeek Reasoner для того же объема — $5. Математика простая, но эмоции побеждают логику.

.NET 9 и AI: где собака зарыта

Microsoft в .NET 9 добавили AI SDK, который обещает "легкую интеграцию". Правда в том, что он легкий только для Azure OpenAI. Для сторонних провайдеров вроде DeepSeek — придется писать адаптеры.

Наш стек:






Свой HttpClient, свои JSON-сериализаторы, свой retry logic. Зато полный контроль и zero dependency на Microsoft.AI.*

Что делать, когда отзывов станет миллион

Масштабирование AI-сервиса — это не про "добавить больше серверов". Это про архитектуру.

Наш план на рост:

  1. Бач-обработка — накопить 100 отзывов, отправить одним запросом с multi-turn диалогом
  2. Приоритизация — негативные отзывы обрабатывать через DeepSeek Reasoner, позитивные — через более дешевую модель
  3. Fine-tuning — когда наберется 50к размеченных отзывов, дообучить маленькую модель специфично под наш домен

Fine-tuning — это отдельная история. В 2026 году дообучить 3B-модель на специфичных данных стоит около $50 (на Modal или RunPod). После этого стоимость обработки падает в 10 раз, потому что модель становится "экспертом" по вашей теме.

Чек-лист: повторить наш успех за 26 дней

  1. День 1-3: Прототип на коленке
    Возьмите 100 реальных отзывов. Напишите промпт для DeepSeek Reasoner (через playground). Проверьте, что он понимает задачу. Не стремитесь к perfect accuracy — стремитесь к working prototype.
  2. День 4-7: .NET-обертка
    Сделайте минимальный HTTP-клиент для DeepSeek API. Добавьте retry logic (429, 500, timeout). Сохраняйте результаты в память — базу данных подключите позже.
  3. День 8-12: Кэширование
    Подключите Redis. Кэшируйте по хэшу промпта. Установите TTL. Замерьте hit rate — он должен быть выше 50% для повторяющихся данных.
  4. День 13-18: Бизнес-логика
    Добавьте фильтры: что можно решить регуляркой (поиск email, номеров заказов). Добавьте пост-обработку: если AI говорит "жалоба на доставку", проверьте наличие слов "курьер", "почта", "срок".
  5. День 19-22: Тестирование
    Соберите тестовую выборку 500-1000 примеров. Замерьте accuracy, precision, recall. Оптимизируйте промпт под слабые места.
  6. День 23-26: Продакшен
    Docker, environment variables, logging, monitoring. Health checks для API. Rate limiting (чтобы случайно не потратить $100).
💡
Секрет скорости: Не делайте "идеальную архитектуру" с первого дня. Сделайте работающий прототип за неделю. Потом итеративно улучшайте. Каждый день должен заканчиваться работающей версией, а не "почти готовым" модулем.

Где эта стратегия не сработает

DeepSeek Reasoner за $4.62 — не панацея. Есть случаи, где наш подход даст сбой:

  • Real-time обработка — если нужно отвечать за <100ms, API вызовы не подойдут. Нужна локальная модель.
  • Сверх-конфиденциальные данные — если нельзя отправлять данные во внешний API, даже зашифрованные.
  • Экстремальные объемы — 10 миллионов запросов в день. Тут economics меняются, возможно, свой инференс дешевле.
  • Специфичные домены — медицинские диагнозы, юридические документы. Требуются fine-tuned модели с domain knowledge.

Для 95% бизнес-задач — классификация текстов, извлечение сущностей, суммаризация — DeepSeek Reasoner более чем достаточен. И в 7 раз дешевле конкурентов.

Что будет через год (прогноз на 2027)

Цены на inference продолжат падать. К концу 2026 DeepSeek, скорее всего, снизит цену до $0.05 за миллион токенов. Появятся специализированные "бизнес-модели" — fine-tuned на конкретные задачи (анализ отзывов, поддержка клиентов, анализ договоров).

Но главное изменение: инструменты. Сейчас мы пишем много boilerplate-кода для работы с AI. Через год появятся frameworks типа "AI-бизнес-логика как код", где ты описываешь pipeline на YAML, а система сама оптимизирует промпты, выбирает модели, кэширует результаты.

Наш кейс за $4.62 через год будет стоить $1.50. А через два года — копейки. Вопрос не в том, стоит ли внедрять AI сейчас. Вопрос в том, готовы ли вы к миру, где обработка текста стоит дешевле стакана воды.

Последний совет: Не ждите "идеального момента". Идеальный момент — когда ваш конкурент уже внедрил AI и сократил издержки на 70%. Начните с пилота. 100 отзывов, DeepSeek Reasoner, 2 дня работы. Либо вы поймете, что это работает, либо потратите $0.50 на эксперимент. Риск минимальный, потенциальный выигрыш — огромный.