Учебные материалы
Кодирующие агенты на слабом железе: DeepSeek, Qwen2.5 и Codestral против Claude Code
Тестируем локальные альтернативы Claude Code: DeepSeek Coder, Qwen2.5-Coder и Codestral на процессоре без GPU. Квантование, производительность, практические рез
Python в нативный код: Mojo, Nuitka, Cython для AI-инференса
Глубокий разбор компиляции Python в нативный код для ускорения AI-инференса. Mojo, Nuitka, Cython — что выбрать для продакшена?
Реальный кейс: как внедрить RAG с Ollama в C# бэкенд для системы отчетности (и что пошло не так)
Подробный разбор реального внедрения RAG с Ollama в C# бэкенд для госзаказчика. Проблемы масштабирования, web api интеграция и уроки из production.
Извлечение причинных признаков из текста: как causal inference и LLM находят настоящие причины, а не корреляции
Полное руководство по causal inference в NLP: sparse autoencoders, HypotheSAES, таксономия текста. Как отличить причину от корреляции в размеченных корпусах.
Как новичок в программировании с температурой 40° написал VLESS-агрегатор с AI-ментором (NotebookLM)
История создания VLESS-агрегатора с температурой 40° с помощью AI-ментора NotebookLM. Полное руководство для начинающих программистов.
Второй мозг на Obsidian и Claude Code: пошаговая настройка локальной AI-системы продуктивности
Пошаговый гайд по созданию локальной AI-системы продуктивности на Obsidian и Claude Code. Интеграция, плагины, автоматизация заметок.
Как выжать максимум из YOLO для промышленного CV: кейс хакатона с реальными данными
Реальный кейс хакатона: как мы решали задачу бинарной сегментации загрязнений камер на производстве с помощью YOLO. Полное руководство по оптимизации, валидации
Как AI-консультант выполнил работу за 10 тысяч вместо 350 тысяч: кейс для руководителей и маркетологов
Реальный кейс: как AI-консультант за 10 тысяч рублей создал стратегию развития, за которую консалтинговые агентства просили 350 тысяч. Для руководителей и марке
Как мы собирали датасет для ML-инструмента, который спасает жизни: этический минное поле и методология, которая работает
Практический разбор сбора датасета для ML-инструмента по предотвращению суицидов. Этические ловушки, методология анонимизации, работа с психологами от команды П
DGX SPARK vs Mac M3 Ultra: подробное сравнение железа для локальных LLM с контекстом 128K+
Практическое сравнение DGX SPARK и Mac M3 Ultra для работы с локальными LLM с длинным контекстом, RAG и генерацией. Тесты скорости, памяти, TTFT.
Кейс: Как перевести корпоративный RAG-агент с OpenAI на локальную Llama 3 и сэкономить за 5 месяцев
Детальный разбор кейса миграции корпоративного RAG-агента с дорогого OpenAI API на локальную Llama 3 70B. Расчет окупаемости за 5 месяцев, выбор железа (NVIDIA
Кодинг на RTX 3060 12GB: GPT-OSS-120B, MiniMax-2.1 и GLM-4.7 — кто реально пишет код, а кто жрёт память?
Практический тест: какая модель лучше пишет код на RTX 3060 12GB. Сравнение квантований REAP-40, q3, производительности и качества кода.