Инструменты
Подборка AI-инструментов. Только то, что работает.
Как защитить конфиденциальные данные в облачных LLM: развертывание ctxproxy с локальными моделями
Обзор ctxproxy - OpenAI-совместимого прокси для защиты PII. Локальные модели Qwen3/Gemma анонимизируют данные перед отправкой в облако. Безопасность без потерь.
Claude дорожает? Берите локальные модели и MCP
Как заменить Claude локальными моделями через MCP. Настройка Anthropic-совместимого эндпоинта, сравнение Opencode и searchNG, примеры использования.
Создаём свой Claude Code с нуля: архитектура кодинг-агента на Python за 200 строк
Создаём локальный coding assistant с нуля. Архитектура, инструменты LLM, автоматизация программирования на Python. Полный код без зависимостей от дорогих API.
Perplexity Comet MCP: когда ваш браузер слушается локальную нейросеть
Полный гайд по настройке и использованию Comet MCP для автоматизации браузера через локальные языковые модели. Установка, примеры, сравнение с аналогами.
ASUS UGen300: USB-флешка, которая обещает запускать нейросети. Серьезно?
Разбираем ASUS UGen300 — USB-акселератор на Hailo-10H с 40 TOPS. Возможности, сравнение с NPU и GPU, кому подойдет для edge-инференса.
Обзор Ollie: локальный AI-редактор кода с прозрачностью и без подписки
Ollie - локальный AI-редактор кода с интеграцией Ollama, одноразовой покупкой и полной прозрачностью токенов. Обзор возможностей, сравнение и примеры использова
MRI-GPT: Собираем локальный ИИ-ассистент для анализа МРТ позвоночника
Пошаговый гайд по сборке MRI-GPT — локального инструмента для сегментации и анализа МРТ позвоночника с помощью Qwen3-VL:8b и nnU-Net. Работает без интернета.
Как я взломал ограничения NVIDIA: написал плагин на 1500 строк C для кластеризации 3 DGX Sparks
Реальный кейс: как я написал RDMA-плагин на чистом C для объединения 3 DGX Sparks в кластер, преодолев официальные ограничения NVIDIA. Подробности реализации, с
Как ускорить инференс LLM на 20% с помощью Cerebellum: архитектура Early Exit, SLERP и Dynamic RoPE
Обзор Cerebellum — инструмента для ускорения инференса LLM. Разбираем архитектуру Early Exit, SLERP интерполяцию и Dynamic RoPE. Примеры, сравнение с альтернати
Ministral-3-14B-Reasoning: как маленькая модель бьёт гигантов в бенчмарках — разбор результатов
Разбор результатов Ministral-3-14B-Reasoning в бенчмарках LiveCodeBench, GPQA, AIME. Почему 14B модель обходит конкурентов с 70B+ параметрами.
GLM 4.7 против MiniMax M2.1: ломаем код на реальной задаче по CLI
Детальный тест двух моделей на создании CLI-утилиты. Сравнение архитектурных решений, качества кода и практической применимости.
Chief CLI: как автоматизировать кодирование с Claude и git worktrees по методу Ralph Wiggum
Автоматизируйте программирование с Claude Code через git worktrees. Структурированный подход к верификации кода и планированию задач.