Учебные материалы
Локальный ИИ на телефоне: как собрать требования сообщества и не сойти с ума
Гид для разработчиков: как собрать требования сообщества для идеального мобильного приложения с локальным ИИ. Архитектура, модели, офлайн-режим.
Генерация игровых миров с помощью Instructor и локальной LLM: полный туториал по созданию RPG-вселенной
Пошаговый гайд по генерации консистентных игровых миров с помощью Instructor, Pydantic и локальной LLM. Создаем RPG-вселенную с SQLite-реестром фактов.
Проблемы при обучении LM с нуля: анализ ошибок потерь (loss) и работа с The Pile
Практический гайд по диагностике странного поведения loss при обучении языковой модели с нуля на The Pile. Решаем проблемы с DDP, потоковой загрузкой и отладкой
16 ГБ VRAM и выбор модели: Qwen2.5 против Mistral, поиск замены Gemini
Детальное руководство по выбору GGUF модели для RTX 5060 Ti 16 ГБ. Сравнение Qwen2.5, Mistral, квантования Q6_K, поиск локальной замены Gemini.
Как создать автономный Infinite Podcast на локальных моделях: полный гайд с Python и RTX 5060 Ti
Полный гайд по созданию бесконечного автономного подкаста на локальных языковых моделях без облачных API. Python, TTS, LLM и полная независимость.
RLVR с GRPO: от теории к работающему коду в ноутбуке
Пошаговое руководство по RLVR с GRPO алгоритмом. Учим LLM с подкреплением с нуля: установка, код, обучение, ошибки. Полный ноутбук с кодом.
Автономный ИИ-агент QA для тестирования бэкенда: концепция и архитектура стенда
Полное руководство по созданию автономного ИИ-агента QA для тестирования бэкенда. Концепция, архитектура стенда, пошаговый план и разбор ошибок.
Экстремальная оптимизация языковых моделей: как запустить LLM на NES и в compile-time C++
Технический эксперимент: как запустить языковую модель на Nintendo Entertainment System и в compile-time C++ с помощью template метапрограммирования. 6502 asm,
Сербские сканы против LLM: как достать данные и не сойти с ума
Полный гайд по OCR и LLM для сканированных PDF на сербском. Решаем проблемы с точностью, layout detection и мультимодальностью. Код, ошибки, альтернативы.
Европейский GPU-дефицит: как запускать локальные LLM на доступном железе
Практическое руководство по запуску локальных языковых моделей на CPU, старом железе и бюджетных видеокартах. Оптимизация памяти, выбор моделей, пошаговая настр
Как создать мобильное приложение с локальным ИИ на llama.cpp: пошаговый туториал
Подробное руководство по разработке мобильного приложения с офлайн-ИИ на llama.cpp. Приватность, автономность и полный контроль над данными.
Как создать плагин tool parser для vLLM под конкретную модель (на примере Apriel-1.6-15B-Thinker)
Подробное руководство по созданию кастомного парсера инструментов для vLLM на примере модели Apriel-1.6-15B-Thinker. Шаги, код, нюансы.