Учебные материалы
Машинное сознание по рецепту Стивена Фитца: строим ИИ, который чувствует боль и радость
Разбираем революционную архитектуру Стивена Фитца для создания ИИ с настоящим сознанием. Клеточные автоматы, трансформеры и информационная геометрия - техническ
Titans и MIROS от Google: как работает архитектура для бесконечной памяти ИИ и можно ли её воспроизвести
Разбираем Titans и MIROS от Google на 2026 год: как работает архитектура для бесконечной памяти ИИ, принципы test-time training и можно ли её воспроизвести лока
Оптимизация AI-станции на Threadripper: как объединить NVIDIA и AMD, охладить память и настроить мощность
Практическое руководство по оптимизации AI-станции на Threadripper с гибридными GPU. Команды nvidia-smi, amd-smi, охлаждение оперативной памяти, компиляция llam
Qwen 3 235B против Devstral: когда RAM спасает от компромиссов в коде
Практический разбор: запускать ли огромную Qwen 3 235B в RAM+VRAM или довольствоваться маленькой Devstral в VRAM? Тесты на Python, Ansible, Terraform.
PCIe-шина — узкое горлышко для LLM: почему x4 на 3.0 убивает скорость вывода, а x16 на 4.0 спасает
Практический тест: как пропускная способность PCIe влияет на скорость инференса LLM. Сравниваем PCIe 3.0 x4 и 4.0 x16 на GLM 4.5 Air с vLLM и tensor parallel. Р
Zoof: от нуля до 394M — Как я предобучил и заставил слушаться языковую модель
Полный гайд по созданию своей языковой модели с нуля: от предобучения на текстах до инструктивного тюнинга. Код, данные, ловушки и репозиторий Zoof.
Тестирование анцензурированных LLM для хакерских задач: почему Gemma-3-Heretic не справляется и что искать
Практическое тестирование анцензурированных LLM для этичного хакинга. Почему Gemma-3-Heretic терпит неудачу и какие модели реально полезны для пентеста в 2026 г
Почему Cursor IDE блокирует локальные LLM и как это обойти: работающий Ollama-хаб в 2026 году
Рабочие конфигурации Ollama для Cursor IDE на 2026 год. Как обойти отсутствие Continue.dev, настроить OpenAI-совместимый эндпоинт и использовать Qwen2.5-14B лок
Unsloth для эмбеддингов: тонкая настройка в 3.3 раза быстрее на 3 ГБ VRAM
Практический гайд по fine-tuning эмбеддингов в Unsloth. Ускорение до 3.3x, работа на 3 ГБ VRAM, EmbeddingGemma, FastSentenceTransformer, RAG.
vLLM или SGLang? Разрубаем гордиев узел выбора движка для LLM в 2026 году
Глубокий разбор vLLM и SGLang в 2026 году. Сравнение архитектур, производительности, Inferact, RadixArk. Какой движок выбрать для вашей задачи?
Как выбрать стратегию развёртывания LLM: от облачных API до локального хостинга
Практическое руководство по выбору стратегии развёртывания LLM в 2026. Сравнение облачных API и локального хостинга: цена, контроль данных, сложность миграции.
Q4, Q6, Q8: как выбрать квантование для офлайн-помощника на смартфоне и планшете
Практический гайд по выбору квантования Q4, Q6, Q8 для офлайн-помощников на смартфонах. Сравнение Dolphin 3.0, Llama 3.1 8B, тесты на Pixel 10, потеря качества