Гайды по AI и нейросетям - AiManual
AiManual Logo Ai / Manual.
Документация

Учебные материалы

Manual #2033 8 min

Машинное сознание по рецепту Стивена Фитца: строим ИИ, который чувствует боль и радость

Разбираем революционную архитектуру Стивена Фитца для создания ИИ с настоящим сознанием. Клеточные автоматы, трансформеры и информационная геометрия - техническ

Открыть документ
Manual #2032 7 min

Titans и MIROS от Google: как работает архитектура для бесконечной памяти ИИ и можно ли её воспроизвести

Разбираем Titans и MIROS от Google на 2026 год: как работает архитектура для бесконечной памяти ИИ, принципы test-time training и можно ли её воспроизвести лока

Открыть документ
Manual #2031 8 min

Оптимизация AI-станции на Threadripper: как объединить NVIDIA и AMD, охладить память и настроить мощность

Практическое руководство по оптимизации AI-станции на Threadripper с гибридными GPU. Команды nvidia-smi, amd-smi, охлаждение оперативной памяти, компиляция llam

Открыть документ
Manual #2030 7 min

Qwen 3 235B против Devstral: когда RAM спасает от компромиссов в коде

Практический разбор: запускать ли огромную Qwen 3 235B в RAM+VRAM или довольствоваться маленькой Devstral в VRAM? Тесты на Python, Ansible, Terraform.

Открыть документ
Manual #2029 9 min

PCIe-шина — узкое горлышко для LLM: почему x4 на 3.0 убивает скорость вывода, а x16 на 4.0 спасает

Практический тест: как пропускная способность PCIe влияет на скорость инференса LLM. Сравниваем PCIe 3.0 x4 и 4.0 x16 на GLM 4.5 Air с vLLM и tensor parallel. Р

Открыть документ
Manual #2026 10 min

Zoof: от нуля до 394M — Как я предобучил и заставил слушаться языковую модель

Полный гайд по созданию своей языковой модели с нуля: от предобучения на текстах до инструктивного тюнинга. Код, данные, ловушки и репозиторий Zoof.

Открыть документ
Manual #2025 6 min

Тестирование анцензурированных LLM для хакерских задач: почему Gemma-3-Heretic не справляется и что искать

Практическое тестирование анцензурированных LLM для этичного хакинга. Почему Gemma-3-Heretic терпит неудачу и какие модели реально полезны для пентеста в 2026 г

Открыть документ
Manual #2022 5 min

Почему Cursor IDE блокирует локальные LLM и как это обойти: работающий Ollama-хаб в 2026 году

Рабочие конфигурации Ollama для Cursor IDE на 2026 год. Как обойти отсутствие Continue.dev, настроить OpenAI-совместимый эндпоинт и использовать Qwen2.5-14B лок

Открыть документ
Manual #2018 9 min

Unsloth для эмбеддингов: тонкая настройка в 3.3 раза быстрее на 3 ГБ VRAM

Практический гайд по fine-tuning эмбеддингов в Unsloth. Ускорение до 3.3x, работа на 3 ГБ VRAM, EmbeddingGemma, FastSentenceTransformer, RAG.

Открыть документ
Manual #2016 6 min

vLLM или SGLang? Разрубаем гордиев узел выбора движка для LLM в 2026 году

Глубокий разбор vLLM и SGLang в 2026 году. Сравнение архитектур, производительности, Inferact, RadixArk. Какой движок выбрать для вашей задачи?

Открыть документ
Manual #2015 7 min

Как выбрать стратегию развёртывания LLM: от облачных API до локального хостинга

Практическое руководство по выбору стратегии развёртывания LLM в 2026. Сравнение облачных API и локального хостинга: цена, контроль данных, сложность миграции.

Открыть документ
Manual #2009 7 min

Q4, Q6, Q8: как выбрать квантование для офлайн-помощника на смартфоне и планшете

Практический гайд по выбору квантования Q4, Q6, Q8 для офлайн-помощников на смартфонах. Сравнение Dolphin 3.0, Llama 3.1 8B, тесты на Pixel 10, потеря качества

Открыть документ