Учебные материалы
Автономная декомпиляция игр Claude: как оставить ИИ на 8 часов без присмотра
Подробное руководство по настройке Claude для автономной декомпиляции игр. Методика reverse engineering, автоматизация процессов и решение проблем.
Как спроектировать современного AI-агента: от planner/executor до stateful memory
Полное руководство по проектированию современных AI-агентов: от архитектуры planner/executor до реализации stateful memory и работы с инструментами.
LM Studio на Mac M3: Топ-5 моделей для работы с PDF, графиками и генерации голоса
Подробный гайд по выбору и настройке 5 локальных LLM моделей в LM Studio для Mac M3. Анализ PDF, работа с графиками и генерация голоса без облаков.
Как удалить личные данные из текста локально: кейс-стади с SLM и Artifex
Пошаговый гайд по удалению персональных данных из текстов локально с помощью Small Language Model и библиотеки Artifex. Решение проблемы приватности без облаков
Как Wildberries строит детектор AI-изображений: от данных до метрик
Разбор ML-системы детекции AI-контента в Wildberries: от сбора данных и выбора архитектуры до production-метрик и мониторинга.
RepE: Как хакнуть активации нейросети и заставить её меньше галлюцинировать
Полный гайд по Representation Engineering (RepE) — как управлять активационными слоями LLM, чтобы снизить энтропию и заставить модель меньше галлюцинировать.
Гайд: как сделать интерактивный новогодний квест для детей с помощью DeepSeek и Sora
Практическое руководство по созданию интерактивного новогоднего квеста для детей с использованием AI инструментов DeepSeek и Sora от OpenAI
GLM-4.5-Air на MacBook: баг с преждевременным EOS и как его обойти
Подробный гайд по решению бага с преждевременным EOS в GLM-4.5-Air на Apple Silicon. Работа с llama.cpp, mlx_lm и практические советы для MacBook.
Obsidian + локальная LLM: замена Gemini CLI для обработки документов оффлайн
Полный гайд по замене облачного Gemini на локальную языковую модель для работы с документами в Obsidian. Конфиденциальность, автономность и полный контроль над
Vulkan против CUDA: неожиданный прирост скорости для GLM4 и Ministral3 в llama.cpp
Тестирование и анализ: почему Vulkan оказался быстрее CUDA для некоторых моделей в llama.cpp. Практический гайд по выбору бэкенда.
Чек-лист: что нужно знать перед сборкой своей нейросети в 2025
21-дневный опыт Senior DevOps инженера: пошаговый чек-лист по аппаратному обеспечению, данным и фреймворкам для сборки нейросети в 2025 году.
Как заставить локальную LLM работать с длинными PDF: гайд по RAG для игровых правил и кулинарных книг
Полное руководство по настройке локальной RAG-системы для работы с длинными PDF. Узнайте, как заставить LLM читать правила игр и кулинарные книги без облачных A