Учебные материалы
Как LLM обманывают даже экспертов: опасность temperature=0 и проверка фактов
Почему GPT-5.2 и Opus 4.5 уверенно врут даже при temperature=0. Как проверять факты и не попасть в ловушку доверия к нейросетям.
Как собрать датасет и обучить LLM с нуля на исторических текстах: кейс TimeCapsuleLLM
Пошаговый гайд по сбору датасета и обучению LLM на исторических текстах. 90GB данных, 1.2B параметров, кастомный токенизатор, снижение bias.
MoE на Radeon 780M: как запустить 70B-модель на мини-ПК за 1500$
Пошаговая настройка ROCm, сборка llama.cpp, оптимизация и реальные бенчмарки MoE-моделей на бюджетном железе. Mixtral, DeepSeek, Qwen на Minisforum UM890 Pro.
Sparse Autoencoders (SAE): вскрываем чёрный ящик LLM, чтобы понять, как они на самом деле думают
Полное руководство по Sparse Autoencoders (SAE) для интерпретации скрытых активаций LLM. Математика, код на PyTorch и пошаговая реализация.
Бюджетный кластер на AMD Strix Halo для LLM до 345B: инструкция, тесты и подводные камни
Пошаговая инструкция по сборке бюджетного кластера на AMD Strix Halo для запуска LLM до 345B параметров. Тесты скорости, настройка llama.cpp RPC, сравнение с до
От нуля к автономному AI-агенту на 165 инструментов за 6 дней: кейс нетрадиционного обучения и prompt engineering
Личный опыт создания AI агента на 165 инструментов без навыков программирования. Нетрадиционное обучение, когнитивное партнёрство и prompt engineering в действи
MLSD: Как не сгореть, проектируя рекомендательные системы. Универсальный план и главные подводные камни
Универсальный фреймворк MLSD для проектирования ML-систем. Разбор главных проблем рекомендательных систем (RecSys): оффлайн/онлайн валидация, признаки, AB-тесты
ACDD и атомарное мышление: как дисциплина коммитов спасает проекты в эпоху AI-разработки
Практическое руководство по ACDD и атомарным коммитам для команд, использующих ИИ-инструменты. Как сохранить контроль над кодом в эпоху AI-разработки.
Как fine-tune модель под новый язык программирования: полное руководство с кодом
Полное руководство по тонкой настройке LLM для поддержки нового языка программирования. Сбор датасета, выбор модели, обучение с LoRA, код на Python и разбор оши
NVIDIA ломает парадигму: LLM теперь учатся на лету, а не просто вспоминают
Глубокий разбор прорывного исследования NVIDIA: как заставить языковые модели обучаться на предоставленном контексте в реальном времени. Технология, которая мен
Siliconflow: дешевый API для Qwen Coder или ловушка с квантованными моделями? Практический разбор
Практический разбор Siliconflow API: дешевый Qwen Coder или квантованный кошмар? Тестируем вывод кода, сравниваем с конкурентами, находим подводные камни.
Abliteration на практике: как убрать «цветистость» из ответов LLM без дообучения модели
Полное руководство по Abliteration — технике удаления напыщенных ответов LLM. Используем Heretic, редактируем веса модели, работаем с residual паттернами. Практ