Учебные материалы
Конец эпохи квадратичной сложности: как LLM научились жульничать с памятью
Полное руководство по оптимизации памяти LLM: от архитектурных хаков до практических реализаций сжатия KV-кэша для длинных контекстов.
Визуализация RAG в 3D: как EmbeddingGemma и UMAP показывают процесс поиска в векторной базе
Практический гайд по визуализации работы RAG-системы. Сжимаем 768-мерные эмбеддинги EmbeddingGemma до 3D с UMAP, строим интерактивные графики в Plotly и смотрим
Fine-tuning Gemma 3 для вызова процедур: пошаговый гайд с кодом и датасетом
Полный гайд по тонкой настройке Gemma 3 для вызова процедур. QLoRA, датасет, код для RTX 4090. Создаем текстового агента за 2 часа.
Self-supervised обучение в Colab: забираем эмбеддинги из сырых данных
Практическое руководство по self-supervised learning в Colab. Создаем эмбеддинги без разметки, реализуем контрастивное обучение и косинусную схожесть.
Как работают AI-кодинг-агенты: архитектура, модели и практические ограничения для разработчиков
Техническое объяснение работы AI-агентов для программирования: архитектура LLM, fine-tuning, reinforcement learning, simulated reasoning и практические ограниче
Claude Code: полное руководство от промпта до продакшна с MCP и автоматизацией
Полное руководство по Claude Code: от промптов до продакшена с MCP, Playwright, хуками безопасности и конвейерами данных. Готовые скрипты и конфиги.
Как создать идеальную схему BPMN с ChatGPT: методика совместной работы "80/20"
Пошаговый гайд по совместной работе с ИИ для моделирования бизнес-процессов. Как получить идеальную схему BPMN с помощью ChatGPT, используя методику 80/20.
Подготовка к робототехническому хакатону AMD: настройка LeRobot и работа с железом SO-101
Пошаговый гайд для участников хакатона AMD: установка LeRobot, работа с робототехническим набором SO-101, настройка ROCm и Ryzen AI. Практические советы от Seni
Silicon Studio: Гайд по локальному фин-тюнингу LLM на Mac M-серии с помощью GUI
Пошаговая инструкция по фин-тюнингу LLM на Mac M-серии через Silicon Studio GUI. MLX framework, LoRA/QLoRA, PII scrubber, оптимизация под Apple Silicon.
Архитектура WeDLM от Tencent: как диффузионные модели ускоряют генерацию текста в 3-10 раз на слабом железе
Как архитектура WeDLM от Tencent генерирует несколько токенов за один проход, ускоряя LLM на слабом железе. Multi-token prediction, DDR5 память, гибрид CPU/GPU.
Персональная база знаний на 106K векторов за 256ms: nomic-embed-text + LanceDB на Mac M4
Практический гайд по созданию высокопроизводительной векторной базы знаний с nomic-embed-text и LanceDB на Apple Silicon. Сравнение DuckDB VSS, метрики производ
Бросьте ChatGPT: запускаем локальные LLM на ноутбуке с 24GB VRAM. Гайд для юристов, которые не хотят сливать клиентские тайны
Пошаговый гайд по запуску локальных языковых моделей на ноутбуке с 24GB VRAM для юристов, финансистов, врачей. Конфиденциальность, автоматизация документов, ана