Инструменты
Подборка AI-инструментов. Только то, что работает.
Liquid AI LFM2-24B-A2B: руководство по запуску MoE-модели на локальном железе с 32 ГБ ОЗУ
Пошаговое руководство по запуску модели Liquid AI LFM2-24B-A2B на локальном компьютере с 32 ГБ ОЗУ. Используем llama.cpp, vLLM, SGLang для эффективной работы sp
Как настроить 4B-агент для навигации по коду: GGUF, Qwen и 100% валидность tool-calling
Пошаговая настройка 4B-агента для навигации по коду. GGUF модель, 100% валидность tool-calling, экономия токенов. Сравнение с Claude и GPT.
LLM Simulator: браузерный симулятор железа для обучения и инференса моделей (GPTQ, AWQ)
Браузерный симулятор для расчета памяти, стоимости и throughput LLM. Поддержка GPTQ, AWQ, 70+ моделей и 25 GPU. Актуальный обзор на февраль 2026.
Рекурсивные языковые модели (RLM): как обрабатывать миллионы токенов с помощью fast-rlm
Обзор fast-rlm 0.1.4 — минималистичного инструмента для экспериментов с RLM. Установка, возможности, сравнение с альтернативами и кому подойдет.
llm-checker: Железный детектив для моделей Ollama
Обзор llm-checker — CLI-инструмента для оценки вашего железа и подбора совместимых моделей Ollama. Установка, возможности, сравнение. Актуально на 24.02.2026.
RWKV-7: когда память перестала быть проблемой для локальных LLM на ARM
Практический гайд по архитектуре RWKV-7. Запускаем локальную LLM на Raspberry Pi и Snapdragon, сравниваем память и скорость с Transformer. Веса на HuggingFace.
Steerling-8B: черный ящик ИИ взломали, и вот почему это изменит всё
Как архитектура Steerling-8B отслеживает каждый токен до обучающих данных. Сравнение с GPT-5 и Llama 4, примеры использования и кому подойдет в 2026 году.
Создаем open-source оркестратор для AI-агентов на Rust: альтернатива Claude Code для локальных моделей
Обзор Rust SDK для оркестрации AI-агентов с локальными моделями через llamacpp, sandboxing и контролем доступа. Альтернатива Claude Code для embedded-приложений
Mem0 vs OpenAI Memory, LangMem, MemGPT: полный бенчмарк систем памяти для AI-агентов с кодом
Сравнение систем памяти для AI-агентов по задержке и точности. Тесты Mem0, OpenAI Memory, LangMem и MemGPT с кодом для воспроизведения.
TinyTeapot-77M: Революция в CPU-инференсе или просто игрушка?
Обзор TinyTeapot-77M — языковой модели на 77 млн параметров, работающей на CPU со скоростью 40 токенов в секунду. Сравнение с альтернативами, примеры использова
NeuroStack: как собрать локального ИИ-ассистента уровня Gemini 3 Deep Think за вечер
Практический обзор фреймворка NeuroStack: настройка, сравнение с альтернативами и реальные примеры для замены облачных ИИ. Актуально на февраль 2026.
Codex-lb: когда один аккаунт ChatGPT — это слишком мало, а платить за Enterprise — слишком много
Обзор Codex-lb — обратного прокси для обхода лимитов ChatGPT. Настройка Docker, сравнение с аналогами, примеры использования. Актуально на февраль 2026.