Учебные материалы
Как построить экспертного RAG-ассистента на CPU VPS: оптимизация 10k книг, выбор архитектуры и модели эмбеддингов
Пошаговый гайд по созданию экспертного RAG-ассистента на CPU VPS с 16GB RAM. Выбор моделей эмбеддингов, настройка Qdrant с mmap, реранкинг BGE и оптимизация под
Контекст или галлюцинации: 3 работающих способа заставить LLM не врать в ваших проектах
Claude Projects, Cursor с RAG, MCP-серверы — практические техники для уменьшения галлюцинаций LLM в реальных проектах. Руководство от Senior DevOps.
GeForce RTX 3090 в серверную 2U стойку: хардверный хак, который сэкономит вам $3000
Пошаговый гайд по превращению игровой RTX 3090 в серверную карту для 2U стойки. Модификация кулера, downvolt, температурный режим.
Computer Vision в ритейле: пошаговый разбор проекта по распознаванию товаров на полках
Полное руководство по внедрению Computer Vision для контроля товаров на полках. От сбора данных до production. Реальные сложности, метрики, архитектура.
Замена Google в терминале: тест производительности Llama 3.2 (1B, 3B) на CPU Intel без видеокарты
Практический гайд по запуску локальных LLM Llama 3.2 (1B, 3B) на процессоре Intel без видеокарты. Замеры скорости, инструкция по установке и интеграции в консол
GEO (Generative Engine Optimization): полное руководство по оптимизации контента для AI-поиска и LLM-ответов
Техническое руководство по оптимизации контента для генеративных движков. Как попасть в ответы ChatGPT, Gemini, Copilot и не потерять трафик.
Приватный iOS-трекер привычек: как добавить ИИ-аналитику без отправки данных в облако
Пошаговый гайд по созданию полностью приватного iOS-приложения с локальной ИИ-аналитикой на примере трекера привычек. SwiftData, CloudKit, Core ML.
Магнитные поля в браузере: как я заставил Gemini и WebGPU работать вместо инженера
Практический кейс: как бесплатный Gemini 3 и WebGPU помогли создать солвер магнитных полей в браузере. Сравнение с Ansys, технические детали и готовый код.
MoLE: Когда эксперты живут не в памяти, а в lookup-таблицах
Mixture of Lookup Experts (MoLE) — революционная архитектура для гибридного инференса, которая сводит к нулю задержку чтения экспертов с диска. Подробный разбор
Архитектура универсального AI-агента: от MCP к skills и REPL-подходу для работы с файлами и CLI
Глубокий разбор эволюции AI-агентов: от tool-ориентированного подхода к концепции skills и REPL для генерации и выполнения кода под задачи. Практическая архитек
Замена DALL-E на локальные модели: как сохранить reference images и OpenAI API
Полное руководство по замене OpenAI DALL-E на локальные модели с поддержкой reference images, семейных фото и OpenAI API-совместимостью. Ollama, llama.cpp, Stab
Открытые TTS против Maya: кто ближе к человеческому голосу в 2026 году?
Тест открытых TTS моделей на натуральность голоса: Qwen3-TTS против Kyutai Moshi против Orpheus 3B. Какая ближе к эталону Maya от Sesame AI?