Учебные материалы
Нейро-символьный ИИ на PyTorch: как нейросеть сама научилась выявлять мошенничество и генерировать правила
Практический гайд по созданию нейро-символьной модели на PyTorch 2.5. Нейросеть сама генерирует IF-THEN правила для обнаружения мошенничества с ROC-AUC 0.933. П
Сжатие MLP-слоёв в LLM: почему модели деградируют по-разному и как найти оптимальную точку
Исследуем, почему Gemma 2B и Llama 3.1 8B по-разному теряют качество при сжатии MLP-слоев. Практический гайд по поиску оптимальной точки сжатия для экономии рес
Архитектура AAF: как GraphRAG и EventBus решают проблемы памяти и безопасности в автономных ИИ-агентах
Подробный разбор архитектуры AAF для автономных ИИ-агентов. Решаем проблемы памяти, зацикливания и безопасности с GraphRAG и EventBus. Актуально на 2026 год.
Layer Surgery: практическое руководство по дублированию трансформерных слоев для улучшения локальных LLM и опасная зона на 50% глубины
Практическое руководство по улучшению локальных LLM через дублирование трансформерных слоев. Обнаружена опасная зона на 50% глубины модели. Работа с Qwen2.5-Cod
Автоматизация браузера на локальных LLM: как stepwise planning и компактный DOM экономят 80% токенов (на примере Qwen 8B+4B)
Пошаговый гайд по браузерной автоматизации на Qwen 8B+4B. Используем stepwise planning и компактный DOM для работы на локальных моделях и экономии токенов.
Какая модель лучше для тонкой настройки? Бенчмарк 15 SLM по 9 задачам с рейтингами
Полное сравнение 15 маленьких языковых моделей для тонкой настройки по 9 задачам. Актуальные рейтинги на март 2026, методология LoRA, выбор лучшей базовой модел
Как устроены галлюцинации в LLM: исследуем геометрию residual stream
Разбираем, как residual stream в трансформерах приводит к галлюцинациям. Методы анализа траекторий представлений по слоям для отладки LLM на 2026 год.
Архитектура deep research агентов: сравнение подходов к веб-поиску и скрапингу (Exa, Tavily, Playwright)
Полное сравнение Exa, Tavily и Playwright для сбора данных в deep research агентах. Как выбрать подход и построить архитектуру, которая не сломается.
Квантование Qwen3.5-27B до 8 бит: практика, которая меняет правила игры
Полное сравнение fp8 и bf16 квантования для Qwen3.5-27B. Тесты на памяти контекста, пошаговое руководство для vLLM, результаты на RTX 6000 Pro.
Как создать ИИ-трейдера OpenClaw без кода: пошаговая настройка и примеры стратегий для Finam Trade API
Пошаговая инструкция по созданию ИИ-трейдера в OpenClaw для автоматической торговли через Finam Trade API. Стратегии, настройка MCP-сервера, примеры.
Опыт квантования Qwen3.5-122B: почему модели >100B параметров не стоит квантить ниже Q4
Почему модели более 100B параметров не стоит квантить ниже Q4: опыт, тесты и альтернативы для экономии VRAM без потери качества.
Собираем локальный ассистент для заметок с транскрипцией и суммаризацией на базе open-source LLM
Полный гайд по сборке приватного ассистента для заметок на базе Whisper 3.1 и Llama 4. Установка, код, оптимизация. Работает оффлайн.