Учебные материалы
Визуализация внимания GPT-2: как заставить модель «видеть» Bad Apple через оптимизацию эмбеддингов
Эксперимент по оптимизации эмбеддингов в GPT-2 для генерации карт внимания, соответствующих кадрам из Bad Apple. Подробное руководство с кодом.
Mac vs ПК с GPU для локальных LLM: детальный разбор стоимости, скорости и удобства в 2026
Подробное сравнение Apple Silicon M4 и ПК с NVIDIA/AMD для локальных LLM. Бенчмарки, стоимость владения, настройка Ollama и llama.cpp. Что выбрать в 2026?
Локальные LLM в 2025: с чего начать, если у вас есть компьютер и много вопросов
Полный гайд по запуску LLM на своем ПК в 2025: выбор видеокарты, инференс-стека, моделей. Разбор ошибок новичков и реальные цифры производительности.
Как собрать локальную рабочую станцию для обучения и дообучения LLM с нуля: железо, ПО и гранты
Полное руководство по сборке локальной станции для обучения LLM с нуля. Выбор железа, настройка ПО, поиск грантов и альтернативы облаку.
Qwen3-Code-Next: как не промахнуться с квантованием и не сломать код
Подробный гид по выбору квантования для Qwen3-Code-Next. Сравниваем Q4_K_XL, MXPF4, тесты производительности, размер файлов и качество генерации кода на актуаль
GLM-4.7-Flash: CPU-only, Hybrid или Full GPU? Реальный бенчмарк на серверном железе 2026
Сравнение производительности GLM-4.7-Flash: 20 vs 99 токенов/сек. Детальный тест CPU-only, Hybrid (exps=CPU) и Full GPU на серверном железе 2026 года.
Как проводить «хирургию мозга» LLM с помощью LoRA: пошаговый эксперимент по контролю поведения модели
Пошаговый эксперимент по тонкой настройке Qwen-2.5 3B через LoRA. Учимся контролировать поведение модели, меняя разные слои. Практический гайд на 2026 год.
Mac Mini M4 24GB vs ПК с Radeon 9070XT: ломаем мифы о железе для локальных LLM
Подробное сравнение Mac Mini M4 24GB и ПК с Radeon 9070XT для локальных LLM. Тесты скорости, поддержка моделей, реальная производительность и выбор платформы.
Knowledge Graphs для агентов: лучшая инфраструктура или избыточная сложность?
Полный разбор Knowledge Graphs для AI-агентов: когда графы знаний работают, а когда создают лишнюю сложность. Практические советы на 2026 год.
От отрицания к магии: личный путь инженера от скепсиса к стратегическому управлению ИИ-агентами
История инженера о преодолении отрицания, трансформации мышления и переходе от написания кода к оркестровке ИИ-агентов. Практические шаги на 2026 год.
Step 3.5 против Minimax M.2.5: кто реально круче на вашем железе?
Детальный разбор бенчмарков llama-bench, тестов iq4_kss квантования и реальной скорости tk/s для Step 3.5 и Minimax M.2.5 на локальном железе. Кого выбрать в 20
Ring-Mini-Linear-2.0 и другие гибридные модели: тест скорости и пригодности для кодинговых агентов
Сравнение гибридных LLM (shallow hybrid attention) для локальных кодинг-агентов. Скорость, точность, практические тесты на февраль 2026.