Учебные материалы
Как создать мобильное приложение с локальным ИИ на llama.cpp: пошаговый туториал
Подробное руководство по разработке мобильного приложения с офлайн-ИИ на llama.cpp. Приватность, автономность и полный контроль над данными.
Как создать плагин tool parser для vLLM под конкретную модель (на примере Apriel-1.6-15B-Thinker)
Подробное руководство по созданию кастомного парсера инструментов для vLLM на примере модели Apriel-1.6-15B-Thinker. Шаги, код, нюансы.
GLM 4.5 Air в режиме тупняка: как выжать максимум скорости с enable_thinking: false
Полное руководство по настройке GLM 4.5 Air с enable_thinking: false. Параметры unsloth, ускорение inference, исправление ошибок генерации.
Замена Claude Code для команды разработчиков: сравнение локальных альтернатив, стоимость и производительность
Полное руководство по замене дорогого Claude Code на локальные модели для команды. Сравнение Deepseek Coder, CodeLlama, настройка vLLM сервера, квантование Q8 и
Как интегрировать локальную LLM в игру S.T.A.L.K.E.R. Anomaly: туториал по созданию динамических событий
Пошаговое руководство по подключению локальной LLM к S.T.A.L.K.E.R. Anomaly для генерации уникальных игровых событий. Proof of concept для моддеров и разработчи
Когда миллион писем должен стать контекстом для AI-агента: индустриальный гайд по реконструкции тредов, парсингу вложений и работе с 15 языками
Глубокий технический разбор обработки email для AI-агентов. Реконструкция тредов, работа с вложениями (OCR, парсинг), мультиязычные данные, zero data retention.
Апгрейд железа для 30B моделей: сравниваем Mac Mini M2 Pro, серверные Xeon и гибридные сборки в бюджете $600
Практический гайд по апгрейду для запуска 30B моделей (Qwen2.5 30B) на бюджет $600. Сравнение Mac Mini M2 Pro, серверных Xeon и гибридных сборок.
Эксперимент с автономным AI-разработчиком: как настроить workflow с генерацией тестов и исправлением багов
Практический гайд по настройке автономного цикла разработки с AI. Используем GPT/Claude через Verdant для генерации тестов и исправления багов. Затраты, ошибки,
Newelle 1.2: Полное руководство по настройке AI-ассистента с llama.cpp, гибридным поиском и семантической памятью на Linux
Пошаговое руководство по установке Newelle 1.2 на Linux. Настройка llama.cpp, гибридного поиска, семантической памяти и инструментов команд MCP.
Speculative Decoding: как ускорить локальные LLM в 2-3 раза на одном GPU (полный гайд)
Глубокий гайд по Speculative Decoding: как ускорить инференс локальных LLM в 2-3 раза на одном GPU с Drafter/Target моделями, параллельной верификацией и reject
Ваш компьютер на автопилоте: как заставить локальную LLM управлять ПК через Show UI Aloha
Полный гайд по настройке локальных LLM для автоматизации ПК через Show UI Aloha. Обзор моделей, пошаговая установка и решение проблем.
Синтетические данные для LLM: как не сжечь модель и получить Phi-1 за копейки
Практический гайд по работе с синтетическими данными для обучения LLM. Разбираем модель коллапс, успешные кейсы (Phi-1, Alpaca) и учимся фильтровать данные как