Представьте: модель с 27 миллиардами параметров, заточенная исключительно под Solidity, размазывает Opus (70B) по тестам генерации контрактов. Не то чтобы я удивился - нишевые LLM давно доказывают, что лучше узкой экспертизы может быть только сверхузкая. Но тут реально прорыв: Solidity LM на базе Qwen 3.6 – новая веса на Hugging Face – показывает качество, которое раньше считалось прерогативой гигантов.
Команда разработчиков взяла базовый Qwen 3.6-27B и дообучила его на датасете из 500 тысяч реальных смарт-контрактов включая DeFi-логику, токены ERC-20/721, безопасные паттерны reentrancy guard и редкие уязвимости. Результат шокировал: в бенчмарке SolidityEval модель набрала 91.3% (Opus - 85.7%). При этом веса доступны открыто, а не через API.
Модель лежит на Hugging Face в репозитории qwen-3.6-solidity-27b-instruct. Есть квантованные версии GGUF от 4 до 8 бит, что позволяет запускать её даже на домашней машине с 16 ГБ VRAM.
Чем это бьёт Opus и почему не стоит сравнивать лбами
Начну с ереси: сравнивать 27B модель с 70B-гигантами вроде Opus – это как мерять боксёра-тяжеловеса с роботом для сварки. Они решают разные задачи. Opus – универсал-эрудит. Solidity LM – хирург узкой специализации. Но когда нужно сгенерировать контракт vault с защитой от flash loan – Solidity LM делает это без лишней воды и с первого промпта.
Ключевые показатели:
| Метрика | Solidity LM 27B | Opus 70B |
|---|---|---|
| Точность генерации кода (SolidityEval) | 91.3% | 85.7% |
| Средняя длина ответа (токенов) | 420 | 980 |
| Время инференса (на RTX 3090, 4-bit) | 2.3 с | 5.7 с |
| Число ошибок в первых 10 вызовах (на ручной верификации) | 1 | 4 |
Цифры впечатляют, но чушь – думать, что модель заменит аудит безопасности. Она отлично пишет черновики, но final review всё равно за человеком. Зато скорость прототипирования взлетает до небес.
Запуск: от gguf до vllm – выбирай досуг
Модель можно запустить тремя способами, и я проверял все на своей 4090 + 64GB RAM.
1Способ для ленивых – LM Studio + GGUF
Скачайте квантованную версию (рекомендую Q4_K_M для баланса качества/скорости). В LM Studio просто загружаете модель и пишете промпты. Но!
Я бы советовал vLLM – он быстрее и гибче. Настройка под ваше железо описана в другом гайде, он полностью применим к аналогу. Только для Solidity LM включать флаг --trust-remote-code не обязательно – модель уже в официальном реестре.
2Способ для хардкора – llama.cpp с кастомным конфигом
Если хотите выжать максимум из своей видеокарты (скажем, для 3080 12GB), придётся поколдовать. Базовый вызов через llama-server может вызвать баг с повторной обработкой промптов – его я исправлял в этом посте. Для Solidity LM актуально то же самое.
Пример запуска с оптимизацией:
./llama-server -m qwen-3.6-solidity-27b-Q4_K_M.gguf -ngl 32 -t 8 --no-prompt-cache
Флаг --no-prompt-cache – временный костыль, пока не выйдет патч в основной ветке. Иначе при повторном вызове модель может вернуть тот же ответ из кэша.
3Способ для продакшна – развёртывание с vLLM и Docker
Если нужно встроить модель в пайплайн вашего Web3-проекта:
FROM vllm/vllm-openai:latest
RUN python -c "from huggingface_hub import snapshot_download; snapshot_download('qwen-3.6-solidity-27b-instruct', local_dir='/models/solidity-lm')"
ENTRYPOINT ["python", "-m", "vllm.entrypoints.openai.api_server", "--model", "/models/solidity-lm", "--tensor-parallel-size", "2", "--max-model-len", "32768"]
Затем просто шлёте запросы через OpenAI-совместимый API. Воркфлоу: ваш бот получает задачу -> модель генерирует контракт -> вы прогоняете статический анализатор. Всё за секунды.
Где модель вылетает в трубу (и как с этим жить)
Буду честен: есть ситуации, когда Solidity LM тупит. Она не знает новых EIP после обучение (а оно остановлено на апрель 2026). Если спросить про новейший стандарт ERC-7777 (гипотетический) – она может выдать отсебятину. Решение: используйте секретный промпт для Qwen 3.5-27B, в котором добавляется фраза «Если не знаешь, скажи, что не знаешь». Адаптация для 3.6 работает так же.
Ещё беда: модель склонна к overthinking при сложной логике реентерабельности. Она может нагенерировать три уровня блокировок, хотя хватило одной. Настройка reasoning-budget помогает ограничить глубину рассуждений.
Сравнение с другими Solidity-моделями (их не много)
Прямых конкурентов раз-два и обчёлся. Есть Solidity-Coder 1.5 от блокчейн-лаборатории – 20B модель на основе CodeLlama. Она медленнее, не понимает современные pragma (>=0.8.20), и в тестах показала 73%. DeFiGPT – не модель, а сервис с платным API; на тестах дал 81%, но с ужасной задержкой 8-10 секунд на запрос. Из больших моделей можно вспомнить Qwen3-Code-Next 72B – у неё 88%, но она слишком жирная для локального запуска (нужно 48GB VRAM).
Solidity LM выигрывает не только по точности, но и по скорости: 2.3 секунды против 5+ у конкурентов. И это при 4-битном квантовании! Если вы ещё не смотрели реальный тест Qwen3-Code-Next на Mac, обязательно гляньте – там показано, как модель бьётся о проблему таймаутов при длинных контекстах, а Solidity LM с этим справляется.
Кому эта модель реально нужна
Сразу отсекаю: если вы пишете один контракт в месяц для пет-проекта – вам и ChatGPT хватит. Но если вы:
- Тимлид в Web3-стартапе, где нужно выдавать по 5 аудированных контрактов в день;
- Фрилансер на Upwork, берущий заказы по написанию токенов (минимальная цена $500 за контракт);
- Участник хакатонов, где скорость прототипирования решает всё;
- Исследователь безопасности, тестирующий новые паттерны атак.
...тогда Solidity LM станет вашей секретной ракетой. Вы уже не сможете работать без неё, как после стека локальных LLM-агентов для программирования. Это не просто инструмент – это сдвиг парадигмы.
Попробуйте. Hugging Face ждёт.