Учебные материалы
CPU-инференс 2025: GPT-OSS 120B против Gemma 3n E4B и Mistral Large 3. Кто выживет без видеокарты?
Реальные тесты производительности больших языковых моделей на CPU. GPT-OSS 120B, Gemma 3n E4B и Mistral Large 3: цифры, настройки, ошибки. Выбор модели для CPU-
Как запустить локальный LLM-сервер в сети: сравнение Oobabooga, Jan AI и LM Studio
Пошаговый гайд по запуску локального LLM сервера в сети. Сравнение Oobabooga, Jan AI и LM Studio. Флаг --listen, настройка для Linux, Mac, Windows.
Как построить OCR-воркфлоу для паспортов с помощью VLM: пошаговый гайд для автоматизации иммиграционных фирм
Пошаговое руководство по созданию OCR-воркфлоу для обработки паспортов с помощью Vision Language Models. Архитектура, код, валидация данных и интеграция.
Time Travel в ML: как избежать утечки данных из будущего при построении фичей для production
Почему ML-модели деградируют в production? Глубокий разбор временных утечек данных на примере fraud-детекции. Пошаговый план защиты.
MCP для локальных моделей: как настроить сервер и обойти проблему аутентификации без облачного провайдера
Полное руководство по настройке Model Context Protocol для локальных моделей. Настраиваем сервер MCP без облачной аутентификации, подключаем инструменты к Ollam
Qwen3 VL галлюцинирует tool-calls в Ollama: как заставить модель видеть реальность
Паттерны ошибок, промпты и решения для мультимодальных галлюцинаций в Qwen3 VL. Практический гайд по отладке tool-calling в Ollama.
Семантическая декомпозиция медицинских текстов на атомарные факты: архитектура фактор-центричной модели данных
Как перейти от документо-центрической к фактор-центрической модели в медицинском AI. Извлечение биомаркеров, находок МРТ, витальных параметров. Архитектура и пр
Как обрабатывать длинные PDF-документы (130+ страниц) в Docling: стратегии чанкинга и оптимизации
Практическое руководство по обработке PDF 130+ страниц в Docling. Автоматический чанкинг, настройка сегментации, оптимизация производительности RAG-пайплайнов.
Epyc 9175F для CPU-инференса: реальные тесты против теории и M3 Max
Практический тест Epyc 9175F для CPU-инференса Llama 3.1 70B. Сравнение с Apple M3 Max, анализ 600 Gbs памяти и оффлоадинга слоев. Реальные цифры против маркети
Как выбрать LLM под 128 ГБ VRAM: сравнение моделей для обработки длинных техдокументов
Сравнение Qwen3-32B, GPT-OSS:120B и других моделей для работы с длинным контекстом на 8×RTX 5070 Ti. Практический гайд по выбору LLM для технической документаци
Как подключить локальную LLM к Cursor AI через LM Studio и ngrok: решение ошибок CORS и конфигурации
Пошаговый гайд по интеграции локальных LLM в Cursor AI через LM Studio и ngrok. Решение ошибок CORS и конфигурации для работы с IDE.
ИИ против рутины: автоматизируем Power BI от DAX до схемы данных
Практическое руководство по использованию ИИ для автоматизации DAX, создания SQL-запросов и экспорта схем Power BI. Примеры кода на Python и .NET.