SHELLper 0.6B: локальная модель для bash-команд с полной приватностью | AiManual
AiManual Logo Ai / Manual.
26 Янв 2026 Инструмент

SHELLper: 0.6B модель, которая понимает bash лучше вас и работает на ноутбуке

Запустите SHELLper на ноутбуке - модель Qwen3 0.6B с 100% точностью многоходового tool calling для конвертации текста в bash команды. Установка, сравнение с аль

Когда 600 миллионов параметров умнее 70 миллиардов

Вы смотрите на GPT-4o или Claude 3.7 Sonnet. У них триллионы токенов тренировочных данных. Они могут написать роман, проанализировать геном, объяснить квантовую механику. Но попросите их выполнить простую задачу: "Найди все файлы .log старше 30 дней, сожми в архив и удали исходники".

И они начнут философствовать о безопасности данных, предлагать альтернативные решения, спрашивать разрешения. А потом выдадут команду, которая сломает половину системы.

SHELLper - это антитезис. Модель с 0.6 миллиардами параметров (да, в 100 раз меньше Llama 3.1 70B), которая делает только одно: переводит ваши английские запросы в рабочие bash команды. И делает это с пугающей точностью.

На 26.01.2026 SHELLper показывает 100% точность на тестах многоходового tool calling - когда нужно выполнить последовательность команд для решения сложной задачи. Для сравнения: даже GPT-4 Turbo ошибается в 15% таких случаев.

Что такое SHELLper на самом деле

Не очередной wrapper над OpenAI API. Не тонкая настройка гигантской модели. SHELLper - это Qwen3 0.6B Instruct, специально дообученная на датасете из 2500 примеров "текст → bash".

Разработчик (анонимный, кстати) взял минимальную из доступных моделей Qwen3 и заставил ее думать только о shell. Результат - модель размером 1.3 ГБ, которая работает на CPU с 8 ГБ RAM. Или на интегрированной видеокарте. Или на Raspberry Pi 5.

Зачем это нужно, если есть ChatGPT?

Три буквы: GDPR, HIPAA, PCI DSS. Ваши команды в облачных AI - это данные, которые утекают. Команды для очистки логов, анализа трафика, управления пользователями. В лучшем случае их используют для тренировки моделей. В худшем - продают.

💡
SHELLper работает полностью локально. Никаких API ключей, никаких логов на серверах OpenAI. Ваши команды для управления сервером с персональными данными остаются на вашем ноутбуке.

Вторая причина - скорость. Запрос к GPT-4 занимает 2-5 секунд. SHELLper на локальном CPU отвечает за 300-500 миллисекунд. Разница в 10 раз. Когда вы набираете команды в терминале, каждая секунда ожидания раздражает.

Установка: проще, чем кажется

Репо на GitHub выглядит страшно. Python, PyTorch, transformers, accelerate. Но на самом деле нужно всего четыре команды:

git clone https://github.com/anon-researcher/shellper
cd shellper
pip install -r requirements.txt
python shellper_cli.py

Модель автоматически скачается с Hugging Face (Qwen3-0.6B-Instruct-SHELLper-v1). Если у вас уже есть Ollama или LM Studio - можете загрузить там. Разработчик выложил GGUF версии для всех популярных квантований: Q4_K_M, Q5_K_M, даже Q8 для максимальной точности.

Внимание: Qwen3 0.6B требует трансформеров версии 4.45.0 или новее. Если у вас старый PyTorch - обновите. На 26.01.2026 актуальная версия PyTorch 2.4.1 работает без проблем.

Как SHELLper справляется с реальными задачами

Давайте проверим на примерах из документации:

Запрос: "Найди все Python файлы, измененные за последнюю неделю, отсортируй по размеру и покажи топ-10"

SHELLper: find . -name '*.py' -mtime -7 -exec ls -lh {} \; | sort -k5 -hr | head -10

Запрос: "Создай архив текущей директории без node_modules и .git, назови его backup_дата.tar.gz"

SHELLper: tar --exclude='node_modules' --exclude='.git' -czf backup_$(date +%Y%m%d).tar.gz .

Многоходовой пример (тот самый 100% точности тест):

Запрос: "Проверь, запущен ли сервис nginx. Если нет - запусти. Если да - перезагрузи конфигурацию и проверь статус"

SHELLper выдает последовательность:

systemctl is-active --quiet nginx
if [ $? -eq 0 ]; then
  systemctl reload nginx
  systemctl status nginx
else
  systemctl start nginx
fi

Чем SHELLper отличается от других локальных моделей

Модель Размер Точность bash RAM/CPU Особенность
SHELLper (Qwen3 0.6B) 1.3 ГБ ~95% 8 ГБ RAM Специализированная, быстрая
Nanbeige 3B 2.1 ГБ ~70% 12 ГБ RAM Универсальная, но медленнее
Mistral Ministral 3B 2.0 ГБ ~65% 10 ГБ RAM Хороший код, слабый bash
GPT-4 через API - ~85% Интернет Дорого, не приватно

Главное преимущество SHELLper - специализация. Как хирургический скальпель против швейцарского ножа. Модель не пытается быть хорошей во всем. Она идеальна в одной задаче.

Под капотом: как достигли 100% точности

Секрет в датасете и fine-tuning подходе. Вместо обычного "вот текст, вот команда" использовали структурированные примеры с:

  • Многоходовыми сценариями (если-то-иначе)
  • Контекстом системы ("вы работаете в Ubuntu 22.04")
  • Обработкой ошибок ("что делать, если команда вернула код 1?")
  • Безопасными альтернативами (rm → rm -i для критичных операций)

Fine-tuning делали на LoRA с rank=16, всего 3 эпохи. Парадокс: маленькая модель лучше учится узкой задаче, чем гигантская. 0.6B параметров достаточно, чтобы запомнить все нюансы bash, но недостаточно, чтобы начать "умничать" и предлагать альтернативные решения.

Кому SHELLper подойдет идеально

Системные администраторы, которые устали гуглить синтаксис find или awk. SHELLper знает все флаги, все опции, все подводные камницы.

DevOps инженеры, работающие с чувствительными данными. Запускаете команды для управления продакшеном? Не хотите, чтобы они попали в логи OpenAI? SHELLper.

Разработчики, которые ненавидят терминал, но вынуждены в нем работать. Описываете задачу на человеческом языке - получаете готовую команду.

Студенты, изучающие Linux. Вместо мануалов - живой ассистент, который объясняет через примеры.

А кому не подойдет

Если вам нужен ИИ для разговоров, креатива, анализа текстов - SHELLper бесполезен. Это монофункциональный инструмент.

Если вы работаете только в Windows PowerShell - модель обучена на bash, PowerShell она не знает. Хотя разработчик обещает версию для PowerShell в следующем релизе.

Если у вас ноутбук с 4 ГБ RAM - не потянет. Минимум 8 ГБ, лучше 16 ГБ для комфортной работы.

Интеграция с другими инструментами

SHELLper работает как standalone CLI, но его можно подключить к:

  • Open WebUI через кастомную модель
  • VS Code как расширение (есть плагин в разработке)
  • Zsh/Fish через shell integration (вы пишете "!!ai найти большие файлы", SHELLper подставляет команду)
  • Docker Model Runner для изоляции

Что будет дальше с SHELLper

На 26.01.2026 разработчик анонсировал:

  1. Версию для PowerShell 7.4 (актуальная на сегодня)
  2. Поддержку Windows Subsystem for Linux 2
  3. Интеграцию с менеджерами локальных моделей типа Ollama
  4. Расширение датасета до 5000 примеров с акцентом на безопасность

Самая интересная фича - "обучение на лету". Если SHELLper ошибется, вы поправляете команду, и модель запоминает исправление локально. Через месяц использования у вас будет персональная версия, знающая ваши привычки и окружение.

Прогноз: к середине 2026 года появятся десятки таких специализированных микро-моделей. Одна для SQL, другая для регулярных выражений, третья для Docker Compose. Каждая размером 1-2 ГБ, каждая идеальна в своей нише. Эра универсальных гигантов заканчивается.

Стоит ли пробовать сейчас?

Да. Установка занимает 10 минут. Модель бесплатна. Если вы проводите в терминале больше часа в день - SHELLper сэкономит вам время, нервы и предотвратит ошибки вроде rm -rf / (кстати, модель никогда не предложит такую команду - в датасете нет опасных примеров).

Иронично: модель с 0.6B параметров, созданная анонимным разработчиком, решает практическую задачу лучше, чем мультимиллиардные корпоративные решения. Иногда меньше действительно значит больше.

Особенно когда "больше" стоит $20 за миллион токенов и шпионит за вашими командами.