Учебные материалы
GLM 4.5 Air: как заставить модель работать без зацикливания в тул-коллах
Подробный гайд по устранению зацикливания GLM 4.5 Air в тул-коллах. Настройка параметров llama.cpp, выбор TUI и лучшие практики для стабильных агентных моделей.
NVLink для двух RTX 3090: стоит ли игра свеч в локальных AI-сборках?
Полный гайд по NVLink для двух RTX 3090 в локальных AI-сборках. Сравнение производительности, пошаговая настройка, водяное охлаждение и альтернативы.
Хаос второго порядка: как ИИ-боты сливают деньги, играя сами с собой на бирже
Глубокий анализ проблемы хаоса второго порядка в алгоритмическом трейдинге: как ИИ-боты, торгуя друг с другом, создают нестабильность и сливают деньги. RSI стра
AI-агенты как сотрудники: какие управленческие принципы из реального офиса работают?
Практический гайд по применению управленческих принципов из реального офиса к AI-агентам. Архитектура, оркестрация, контроль и мотивация искусственных сотрудник
Как заставить ИИ правильно считать и показывать время: прорыв в тонкой настройке моделей
Полное руководство по fine-tuning ИИ для точного счета времени и генерации аналоговых часов. Решаем классическую проблему генеративных моделей.
Лучшие локальные LLM для RTX 5080: обзор моделей с тул-коллингом и контекстом 32K+
Подробный обзор и сравнение локальных LLM моделей (Qwen, Nemotron, Mistral) с тул-коллингом и контекстом 32K+ для новой видеокарты RTX 5080. Настройка, тесты, р
GB10 vs RTX vs Mac Studio: 128GB памяти против скорости генерации — что выбрать для AI-разработки?
Практический гайд по выбору железа для AI-разработки. Сравнение GB10, RTX и Mac Studio: память 128GB vs скорость генерации. Для веб-разработчиков и работы с LLM
BGE M3 vs EmbeddingGemma vs Qwen3: какой эмбеддинг-моделью заменить OpenAI в продакшене?
Полный гайд по выбору open-source эмбеддинг-модели для замены OpenAI в продакшене. Сравнение BGE M3, EmbeddingGemma и Qwen3 для RAG-систем.
Как настроить темперамент ChatGPT: полный гид по новым настройкам Warmth и Enthusiasm
Подробное руководство по настройке тона ChatGPT с помощью параметров Warmth и Enthusiasm. Как персонализировать общение с ИИ для разных задач.
Собираем ПК для локальных LLM за копейки: 3× RTX 3090 и eGPU на 96 ГБ VRAM
Пошаговый гайд по сборке мощного и дешёвого ПК для локальных языковых моделей на 3 видеокартах RTX 3090 с eGPU. Решение проблем совместимости и PCIe lanes.
Llama.cpp в LXC-контейнере на Proxmox: полный гайд по запуску LLM на AMD
Пошаговое руководство по развертыванию локальных LLM через Llama.cpp в LXC-контейнерах Proxmox на оборудовании AMD. Оптимизация, настройка и устранение ошибок.
Гипотеза Римана и ИИ: как статистика может взломать величайшую задачу математики
Разбираем, как методы статистики и машинного обучения помогают приблизиться к доказательству гипотезы Римана. Практические подходы и алгоритмы.