Учебные материалы
Mindstream: как я собрал RSS-ленту, которая читает за меня (и не врет)
Пошаговый гайд по сборке AI-приложения для фильтрации RSS с помощью языковых моделей. Полный код на GitHub, работа с Habr и другими источниками.
Qwen3 Next — MoE-модель нового поколения: требования к железу и перспективы для Mac
Полный разбор Qwen3 Next MoE-модели: требования к памяти на Mac, сравнение с Qwen2.5, оптимизация под Apple Silicon и практические тесты на февраль 2026 года.
Два мозга лучше одного: как собрать AI-ассистента с роутером и мозгом на ограниченных ресурсах
Пошаговое руководство по созданию кастомного AI-ассистента с двумя моделями: роутер для определения интента и мозг для ответов. Экономия GPU, серийная загрузка,
Гроккинг при тонкой настройке LLM: миф или реальность? Практические наблюдения
Разбираем феномен гроккинга при тонкой настройке языковых моделей. Актуальные исследования, практические наблюдения и методы управления обучением на 2026 год.
Запуск 70B+ моделей на домашнем ПК: слоевый стриминг против ограничений VRAM
Полное руководство по запуску 70B+ моделей на домашнем ПК. Слоевый стриминг, CPU offloading, оптимизация VRAM и практические примеры для RTX 5060 Ti, NVIDIA Tho
Бенчмарк 40 AI-моделей (Февраль 2026): Liquid LFM 2.5 (359 TPS) против Ministral 3B — тактика выбора
Сравнение 40 AI-моделей по TPS и стоимости. Liquid LFM 2.5 (359 токенов/сек) против Ministral 3B. Тактика выбора модели под задачу в 2026 году.
Средние LLM 20-80B: как выбрать модель, которая не сломает вашу видеокарту
Полный гайд по выбору и запуску средних LLM моделей 20-80B параметров. Сравнение квантований Q4/Q5/MXFP4, тесты производительности и практические рекомендации д
Защита базы данных от AI: как regex lock предотвращает DROP TABLE в Text-to-SQL агенте
Практическое руководство по защите баз данных от опасных SQL-запросов AI-агентов. Реализация regex lock и SqlJudge на Python. Актуально на 2026 год.
Language Dove: как я создал интерактивные субтитры для изучения языков с помощью AI
Пошаговый гайд по созданию Language Dove - системы интерактивных субтитров с подсветкой слов, контекстуальным переводом и романзацией. Используем Whisper 2026,
Когда RAM не хватает: заставляем llama.cpp работать с контекстом 1M+ через SSD Offload
Пошаговый гайд по offload KV-кэша на SSD для llama.cpp. Как запустить контекст 500K+ на обычном железе. Настройка, оптимизация, ловушки.
Когда 128К токенов не хватает: как заставить LLM анализировать документы длиннее её памяти
Практическое руководство по обработке длинных документов в LLM. Методы chunking, advanced RAG, иерархическая агрегация и сохранение контекста с примерами кода н
Агенты поверх микросервисов: архитектурная революция или очередной хайп?
Глубокая архитектурная концепция AI-ERP: как объединить микросервисы и AI-агенты для создания управляемых корпоративных систем. Пошаговый план внедрения.