Проблема: почему традиционный AI-ассистинг работает вхолостую
Вы когда-нибудь замечали, что после 50 промптов "оптимизируй этот код" получаете тот же код, но с другими именами переменных? Роберт Мартин столкнулся с этим в начале 2025 года. Его команда тратила недели на рефакторинг, а производительность росла на жалкие 5-10%. Проблема была в подходе: все просили AI "сделать код быстрее", но никто не объяснял, что именно мешает.
Классическая ошибка: просить AI оптимизировать код без конкретных метрик. Это как просить врача "сделай меня здоровым" без анализов и обследования.
Инсайт: смена парадигмы с генерации на исследование
Мартин понял главное. Современные модели вроде Claude Opus 4.5 (актуально на январь 2026) - это не просто генераторы кода. Это исследовательские инструменты, способные анализировать сложные системы, если правильно задать вопросы.
Вместо "напиши быстрый код" он начал спрашивать:
- Какие узкие места в этом модуле?
- Какие метрики мы можем собрать?
- Какой алгоритмической сложности эта функция?
- Где здесь скрытые O(n²) операции?
1Шаг первый: сбор метрик вместо рефакторинга
Мартин запретил своей команде делать рефакторинг "на глаз". Вместо этого каждый разработчик должен был сначала собрать данные. Вот промпт, который он использовал с Claude Opus:
Анализируй этот код и предложи план сбора метрик производительности:
1. Какие ключевые метрики нужно замерить?
2. Где вероятные узкие места?
3. Какой инструмент профилирования использовать?
4. Какие данные собирать перед оптимизацией?Результат был неожиданным. В 70% случаев проблемы были не там, где их искали. Одна функция с "явно медленным циклом" оказалась нормальной, а проблема была в сериализации JSON, которая вызывалась тысячи раз.
2Шаг второй: создание карты производительности
Мартин не останавливался на простых замерах. Он просил Claude Opus создавать "карты производительности" - визуальные представления того, где система тратит время. Это особенно полезно в сравнении с другими подходами, о которых я писал в статье про архитектурные различия между OpenCode и Claude Code.
Промпт для создания карты:
На основе этого кода создай карту производительности:
1. Раздели систему на компоненты
2. Для каждого компонента оцени сложность (O-нотация)
3. Определи зависимости между компонентами
4. Предложи метрики для каждого соединения
5. Визуализируй это в виде диаграммы (текстовой или Mermaid)Эта карта стала основой для всех дальнейших оптимизаций. Команда видела не просто "медленный код", а систему взаимосвязанных проблем.
3Шаг третий: приоритизация оптимизаций
Вот где начинается магия. Собрав метрики и создав карту, Мартин использовал Claude Opus для расчета ROI каждой потенциальной оптимизации. Промпт:
На основе этих метрик производительности:
{вставь реальные метрики}
Рассчитай:
1. Какая оптимизация даст наибольший прирост на единицу усилий?
2. Какие оптимизации имеют diminishing returns?
3. В каком порядке их реализовывать?
4. Какие метрики отслеживать после каждой оптимизации?Этот подход позволил команде Мартина достичь 90% ускорения, сфокусировавшись всего на 20% кода. Остальные 80% они даже не трогали.
Конкретный кейс: как это работало на практике
Возьмем реальный пример из бэкенд-сервиса команды Мартина. Исходный код обрабатывал данные пользователей со средней задержкой 450мс. После классического "рефакторинга" - 420мс. Скучно.
С подходом на основе метрик:
- Claude Opus обнаружил, что 80% времени тратится на валидацию email-адресов через регулярные выражения
- Каждый вызов создавал новый скомпилированный regex
- Кэширование regex дало +35% производительности
- Дальнейший анализ показал избыточные проверки в бизнес-логике
- Упрощение логики добавило еще +40%
- Оптимизация сериализации JSON - последние +15%
Итог: 450мс → 45мс. Десятикратное ускорение.
| Подход | Усилия | Результат | ROI |
|---|---|---|---|
| Традиционный рефакторинг | 2 недели | +6% | Низкий |
| Анализ с Claude + метрики | 3 дня | +90% | Высокий |
Инструменты: что использовать кроме Claude Opus
Мартин не ограничивался одним инструментом. Его стек выглядел так:
- Claude Opus 4.5 для стратегического анализа и планирования
- Claude Code для локального тестирования гипотез (как в моем гайде про локальный запуск Claude Code)
- cProfile + SnakeViz для сбора реальных метрик
- Custom scripts для автоматизации сбора данных
Ключевой момент: Claude Opus использовался на этапе анализа, а не генерации кода. Это важно, потому что модели для кодинга (вроде тех, что сравнивал в статье про Cursor vs Warp vs Claude Code) оптимизированы для другого.
Типичные ошибки и как их избежать
Ошибка 1: Просить Claude "сделать код быстрее" без контекста. Результат - поверхностные изменения.
Ошибка 2: Не проверять предположения AI реальными метриками. Claude может ошибаться в оценках сложности.
Ошибка 3: Оптимизировать всё подряд. ROI падает после первых нескольких улучшений.
Ошибка 4: Использовать одну модель для всего. Для анализа - Claude Opus, для реализации - специализированные кодеры.
Почему это работает именно с Claude Opus
После тестирования разных моделей (включая сравнение в статье про MiniMax 2.1 против Claude) Мартин выделил три преимущества Claude Opus для анализа:
- Контекст 200K токенов - можно загрузить всю codebase для анализа
- Сильное reasoning - модель действительно "думает" над проблемой
- Понимание систем - видит связи между компонентами
Для сравнения, более дешевые модели часто предлагают очевидные оптимизации ("используй list comprehension"), которые дают мизерный прирост.
Как внедрить этот подход в свою команду
Мартин рекомендует начинать с малого:
- Выберите один медленный endpoint или функцию
- Соберите базовые метрики (время выполнения, память)
- Попросите Claude Opus проанализировать и предложить гипотезы
- Проверьте каждую гипотезу реальными замерами
- Реализуйте только то, что дает значительный эффект
- Документируйте процесс и результаты
Через месяц такой практики вы начнете видеть паттерны. Какие типы проблем чаще всего встречаются в вашем коде. Какие оптимизации работают. Какие - нет.
Что дальше? Будущее AI-ассистированного профилирования
Метод Мартина - только начало. Уже сейчас появляются инструменты, которые автоматизируют сбор метрик и их анализ. Но главный тренд, который я вижу - интеграция AI в CI/CD пайплайны.
Представьте: каждый пулл-реквест автоматически анализируется на предмет деградации производительности. AI сравнивает метрики до и после изменений. Находит скрытые регрессии. Предлагает оптимизации.
Это не фантастика. Команды вроде той, о которой я писал в статье про Claude Opus 4.5 и кастомный промпт для VS Code, уже экспериментируют с этим.
Но помните главное правило Мартина: сначала метрики, потом оптимизации. Без данных вы просто гадаете на кофейной гуще. А с данными и Claude Opus вы можете добиться тех самых 90% ускорения, которые кажутся магией.
Попробуйте сегодня. Возьмите самый медленный кусок вашего кода. Не просите его оптимизировать. Попросите его проанализировать. Разница вас удивит.