Твой мозг в облаке? Нет, спасибо
Представь: все твои рабочие заметки, идеи для проектов, вырезки из статей и личные мысли живут на серверах какой-то компании. Ты платишь им ежемесячно за доступ к собственному контенту. Их алгоритмы анализируют твои данные. Их серверы могут упасть. Их политика может измениться. Звучит как цифровая аренда собственного разума.
Yttri появился как ответ на эту абсурдность. Это не просто ещё один блокнот. Это философское заявление: Local-First — сначала локально. Твои данные принадлежат тебе, живут на твоём устройстве и работают с твоими локальными AI-моделями. Никаких подписок. Никаких утечек. Никаких компромиссов.
На 14.02.2026 Yttri использует Tauri v2.4.1 с улучшенной безопасностью и поддержкой WebGPU для аппаратного ускорения AI-операций. Rust-бэкенд обновлён до версии 1.82, что даёт приросты производительности до 15% в операциях с графами знаний.
Что умеет Yttri (и что не умеет)
Yttri построен вокруг трёх столпов: граф знаний, локальный AI и полный контроль.
- Графовая база знаний — не просто папки и теги. Каждая заметка становится узлом, связи — рёбрами. Найди все идеи, связанные с проектом «А», даже если они разбросаны по разным документам. Визуализируй связи, которые раньше не замечал.
- Локальный RAG (Retrieval-Augmented Generation) — спрашивай у своей базы знаний на естественном языке. «Какие идеи по улучшению UX у меня были в прошлом месяце?» Yttri найдёт релевантные фрагменты, отправит их в локальную LLM и получит осмысленный ответ. Всё на твоём железе.
- Автоматическая категоризация — закидывай заметки, статьи, PDF. Система проанализирует контент, предложит теги, выявит основные темы. Не нужно вручную разбирать кипу материалов.
- Би-дирекшн синхронизация с markdown — все заметки хранятся как обычные .md файлы. Можешь редактировать их в VSCode, Obsidian, чем угодно. Изменения синхронизируются в обе стороны.
Чего нет: облачной синхронизации (это фича, не баг), мобильных приложений (пока), готовых интеграций с Trello/Jira (но есть API).
Yttri vs. Obsidian vs. Notion: битва философий
| Критерий | Yttri | Obsidian | Notion |
|---|---|---|---|
| Хранение данных | Только локально | Локально (синк — опция) | Облако (их серверы) |
| AI-функции | Локальные LLM, бесплатно | Плагины + API ($$$) | Их AI, подписка |
| Производительность | Rust-ядро, мгновенный поиск | Electron, иногда тормозит | Веб, зависит от интернета |
| Стоимость | Бесплатно (MIT) | Бесплатно + платные плагины | $8-15/месяц за AI |
| Расширяемость | Rust-плагины, API | JavaScript-плагины (огромная экосистема) | Ограниченные API |
Obsidian — отличный инструмент, но его AI-функции требуют либо облачных API (деньги, приватность), либо сложной настройки локальных моделей через плагины. Yttri родился с AI внутри. Notion? Это аренда квартиры, где хозяин может в любой момент поменять замки.
Если ты уже используешь Tandem для AI-воркспейса, Yttri станет идеальным дополнением — специализированная система для долгосрочного хранения и структурирования знаний.
Установка: не так страшно, как кажется
Yttri распространяется как нативный бинарник для Windows, macOS и Linux. Никаких Docker, никаких Node.js-зависимостей (спасибо, Tauri).
1Скачиваем и запускаем
Идём на GitHub-релиз, качаем установщик для своей ОС. На Linux это обычно .AppImage или .deb пакет. Устанавливаем как любое другое приложение.
Версия на 14.02.2026 включает автоматические обновления через собственный updater на Rust. Больше не нужно вручную проверять GitHub.
2Настраиваем локальную LLM
Это самый важный шаг. Yttri не поставляется с моделями — ты выбираешь свои.
- Скачиваешь GGUF-файл модели. Для начала подойдёт Llama 3.2 7B (требует ~6 ГБ RAM) или более новая, оптимизированная Qwen2.5-Coder-1.5B, если работаешь с кодом.
- Указываешь путь к модели в настройках Yttri.
- Выбираешь бэкенд: llama.cpp (CPU/GPU) или более специализированные, если у тебя NVIDIA/AMD.
Если никогда не запускал локальные модели — прочти полный гайд для начинающих. Там всё разжёвано.
3Импортируем старые данные
Yttri понимает markdown, CSV, и через плагины — PDF, DOCX. Просто перетаскиваешь папку с заметками из Obsidian или экспорт из Notion. Система построит граф связей автоматически.
Первые 10 минут она будет анализировать контент. Не пугайся — Rust работает быстро, даже на тысячах документов.
Как это выглядит на практике
Ты пишешь заметку о новой архитектуре микросервисов. Yttri автоматически находит все предыдущие упоминания «docker», «kubernetes», «мониторинг» в твоей базе и предлагает связать их. Ты спрашиваешь в чате: «Какие лучшие практики по развёртыванию я уже исследовал?»
Система: 1) Ищет семантически похожие фрагменты по всей базе. 2) Формирует контекст. 3) Отправляет в локальную Llama. 4) Возвращает сводку с ссылками на оригинальные заметки.
Всё происходит за 2-3 секунды. Ни один байт не ушёл в интернет.
Для сложных автоматизаций можно подключить локальный стек автоматизации через API Yttri.
Кому подойдёт (а кому — нет)
Бери Yttri, если:
- Устал платить за AI-функции в Notion/Obsidian.
- Работаешь с конфиденциальными данными (юриспруденция, медицина, исследования).
- Хочешь полного контроля над своими цифровыми воспоминаниями.
- Уже пользуешься локальными LLM и хочешь интегрировать их в рабочий процесс.
- Ценишь производительность нативного приложения над Electron-оболочкой.
Не трать время, если:
- Тебе нужна мгновенная синхронизация между телефоном, планшетом и ноутбуком.
- Не готов выделить 4-8 ГБ RAM под локальную модель.
- Твоя работа — это 90% совместного редактирования в реальном времени.
- Боишься терминала и предпочитаешь «всё из коробки».
Под капотом: почему Rust и Tauri — это важно
Electron-приложения жрут память. JavaScript-бэкенды для AI-операций — медленные. Yttri построен на Rust, который даёт:
- Почти нулевые накладные расходы — приложение «весит» ~25 МБ против 150+ МБ у Electron-аналогов.
- Безопасность памяти — никаких случайных утечек при обработке тысяч документов.
- Нативная многопоточность — поиск по графу и инференс модели могут работать параллельно.
Tauri v2.4.1 обеспечивает минималистичный мост между Rust-бэкендом и веб-интерфейсом. Весь AI-код выполняется в изолированном Rust-процессе, а не в песочнице браузера. Это критично для производительности.
Если тебе интересна архитектура таких систем, посмотри как устроен Femtobot — там те же принципы, доведённые до крайности.
Что дальше? (Спойлер: оффлайн-коллаборация)
Roadmap проекта на 2026 год включает p2p-синхронизацию через libp2p. Представь: ты и твоя команда работаете над общей базой знаний, но данные синхронизируются напрямую между устройствами, без центрального сервера. Как Git, но для графов знаний.
Ещё в планах — плагин для UI-TARS, чтобы автоматически документировать действия на компьютере и сохранять их в Yttri.
Тренд ясен: будущее за гибридными системами, где критичные данные живут локально, а AI помогает их осмыслить. Yttri — один из самых радикальных и последовательных представителей этого движения.
Начни с малого: установи Yttri, подключи маленькую 3B-модель, импортируй папку с заметками. Попробуй задать вопрос своей же базе знаний. Когда получишь первый осмысленный ответ, сгенерированный полностью на твоём ноутбуке, ты поймёшь — это другое ощущение. Это не услуга. Это инструмент.