Скандал, который подарил вам бесплатный Claude Code
В начале марта 2026 года произошло то, о чём шептались в каждом AI-чате. Исходный код CLI-агента Anthropic, известного как Claude Code, утёк в сеть. Не через официальный релиз, не через блог компании, а через гигантскую дыру в безопасности. Anthropic пыталась замять историю, но интернет, как всегда, оказался быстрее. Уже через 48 часов на GitHub появился первый форк, который получил имя OpenClaude. Это не просто копия. Это ключ к мощнейшему инструменту для работы с кодом, который теперь можно заставить думать на любом языке — GPT-4o, Llama 3.3 405B, DeepSeek Coder V3, или даже на вашей собственной дообученной модели.
Юридическая пометка: использование утёкшего кода может нарушать лицензионные соглашения Anthropic. Мы не поддерживаем нарушение авторских прав, но анализируем технологический феномен, который уже невозможно игнорировать. Если вы разработчик Anthropic, который случайно наткнулся на эту статью — привет. Ваш код гениален, но слишком хорош, чтобы оставаться закрытым.
Что плавает в этом коде: от Node.js до шим-провайдера
OpenClaude — это не переписанный с нуля проект. Это почти нетронутый оригинальный код Anthropic, выложенный в открытый доступ. Стек? Node.js 20+, TypeScript, куча внутренних библиотек для работы с MCP (Model Context Protocol). Архитектура завязана на одном хитром компоненте — шим-провайдере (shim provider).
Зачем он нужен? Оригинальный Claude Code умел общаться только с API Anthropic (Claude 3.7 Sonnet, Opus 4.6). Шим-провайдер — это прослойка, которая переводит родные запросы агента в формат, понятный любому OpenAI-совместимому эндпоинту. Хотите заменить Claude на свежий GPT-4o Mini? Поменяйте URL в конфиге. Мечтаете о полностью локальной работе с GPT-OSS-120B через vLLM? Тоже не проблема.
На что способен этот зверь? Всё, что умел оригинал
Список фич читается как вишлист любого разработчика:
- Работа с файловой системой: чтение, запись, редактирование файлов в реальном времени. Агент видит структуру проекта.
- Выполнение команд bash с интерактивным подтверждением. Он не слепо выполняет код, а спрашивает \"Вы уверены, что хотите запустить rm -rf /?\" (хотя, если очень попросить, может и не спросить).
- Полная поддержка MCP (Model Context Protocol): это экосистема серверов, которые расширяют контекст модели. База данных, погода, Jira — что угодно. В мультиагентных системах это становится суперсилой.
- Агентный режим: он не просто отвечает на вопросы. Он планирует задачи, выполняет шаги, исправляет ошибки. По сути, у вас в терминале сидит junior -разработчик, который никогда не спит.
И всё это теперь работает с моделью, которую вы выберете. Тот самый локальный DeepSeek Coder внезапно обзаводится способностями к инструментам, которые раньше были эксклюзивом для Claude.
Запускаем за 5 минут. Серьёзно
Вам не нужны суперкомпьютеры. Нужен Node.js и 10 минут времени.
1Клонируем и собираем
git clone https://github.com/openclaude/claude-code-shim.git
cd claude-code-shim
npm install
npm run buildРепо изменится, но суть останется: это форк оригинального кода с добавленным провайдером.
2Настраиваем подключение к модели
Создаёте файл конфигурации config.json. Вот пример для локальной модели, запущенной через Ollama (например, Llama 3.1 8B):
{
\"provider\": \"openai\",
\"apiKey\": \"ollama\", // Ключ не нужен для локального запуска
\"baseURL\": \"http://localhost:11434/v1\", // Эндпоинт Ollama
\"model\": \"llama3.1:8b\", // Имя вашей модели в Ollama
\"defaultTools\": [\"bash\", \"files\"]
}Хотите использовать коммерческий API? Подставьте ссылку на OpenAI, Anthropic (через совместимый шлюз) или любого другого провайдера. Для облачных GPU с тяжёлыми моделями можно использовать сервисы вроде RunPod, которые дают OpenAI-совместимый API.
3Запускаем агента
npm start -- --config ./config.jsonЕсли всё настроено верно, в терминале появится приглашение. Можете спросить: \"Создай простой HTTP-сервер на Node.js\". И он сделает. Откроет файл, напишет код, запустит его и проверит.
Не работает? Самая частая ошибка — неправильный baseURL. Убедитесь, что ваша модель действительно доступна по этому адресу. Для Ollama нужно запустить ollama serve. Для vLLM — правильно настроить сервер. Детали есть в нашей инструкции по локальному запуску Claude Code.
OpenClaude против всего мира. Кто кого?
Сравнивать OpenClaude нужно с двумя категориями: с оригиналом и с другими CLI-агентами.
| Инструмент | Плюсы | Минусы | Стоимость |
|---|---|---|---|
| Оригинальный Claude Code | Официальная поддержка, интеграция с полным стеком Anthropic, стабильность. | Только модели Anthropic, дорого (от $20/мес), требует API ключ. | $$$ |
| OpenClaude | Любая модель, полностью бесплатно, локальный запуск, полный контроль. | Неофициальный, возможны баги из утёкшего кода, нет поддержки от Anthropic. | Бесплатно |
| DeepAgents CLI | Специализирован на коде, свои оптимизации, открытая разработка. | Меньше инструментов, чем у Claude Code, своя экосистема. | Бесплатно/Open Source |
| Просто скрипты на OpenAI API | Полная свобода, простые промпты. | Нет готовой архитектуры агента, нужно всё писать самому. | Зависит от API |
Вывод? OpenClaude выигрывает у оригинала в гибкости и цене (ноль рублей против сотен долларов в месяц за Opus 4.6). Но проигрывает в надёжности. Это как ехать на собранном в гараже Ferrari — быстро, но может развалиться на повороте.
Где это уже жгут? Реальные кейсы
Сообщество не стало ждать официального руководства. Вот что люди делают с OpenClaude прямо сейчас:
- Автоматизация рутинных задач: рефакторинг легаси-кода, генерация тестов, обновление зависимостей. Один разработчик за выходные пропустил через него 50 микросервисов, заменив устаревшие библиотеки.
- Образовательные проекты: Как в кейсе с тестированием электронных плат, но для студентов. Агент объясняет ошибки в коде, предлагает решения, работает как персональный ментор.
- Быстрое прототипирование: \"Создай MVP мессенджера с шифрованием\". Через 20 минут у вас работает каркас на React и Node.js. Модель? Локальный Qwen2.5 Coder, который не отправляет данные в облако.
- Исследования AI: Эксперименты с многозагентными системами, где каждый агент — инстанс OpenClaude с разной моделью. Один планирует на GPT-4o, другой пишет код на DeepSeek, третий ищет баги на Llama. Бюджет — близко к нулю.
Кому стоит залезть в это болото, а кому — бежать
OpenClaude — инструмент с характером. Он не для всех.
Берите, если вы:
- Разработчик, который устал платить за Cursor Pro или GitHub Copilot и хочет контроль.
- Исследователь AI, нуждающийся в мощной, но бесплатной платформе для экспериментов с агентами.
- Компания с жёсткими требованиями к безопасности, которая хочет запустить всё в изолированном облаке.
- Любитель покопаться в чужом коде и настроить всё под себя.
Обходите стороной, если:
- Вам нужна стабильная, поддерживаемая коробка. Утёкший код — это всегда лотерея.
- Вы не готовы тратить время на настройку провайдеров и устранение багов.
- Юридические риски (использование утёкшего IP) пугают больше, чем технические возможности.
- Вы ждёте интеграции с официальными сервисами Anthropic вроде Agent Teams в Opus 4.6. Их тут не будет.
Что будет с этим форком через год? Спойлер: ничего хорошего
История с утёкшим кодом редко заканчивается хэппи-эндом. Anthropic наверняка уже готовит юридические письма основным контрибьюторам репозитория. Но есть шанс, что сообщество успеет создать настолько удачный форк, что его уже нельзя будет остановить. Как с музыкой — пиратство не убили, но зато создали Spotify.
Мой прогноз? OpenClaude проживёт ещё 6-8 месяцев в текущем виде. Потом либо закроется под давлением, либо эволюционирует в полностью легальный open-source проект с переписанным ядром. Но пока он жив — используйте. Это уникальный шанс заглянуть в кухню лидера индустрии и забрать оттуда лучшие рецепты бесплатно. Только не удивляйтесь, если однажды репозиторий станет приватным. Успейте сделать форк.