Инструменты
Подборка AI-инструментов. Только то, что работает.
Book2Movie: когда хочется не просто аудиокнигу, а целое кино на рабочем столе
Как создать мультимедийные аудиокниги из PDF и EPUB на своём ПК без облаков. Обзор open-source инструмента Book2Movie с примерами и альтернативами.
Как запустить BitNet на iPhone: 45 токенов/с на 0.7B модели с 1-битными весами
Полное руководство по запуску BitNet на iPhone с рекордной скоростью 45 токенов/с на модели 0.7B с 1-битными весами. ARM NEON, iOS оптимизация, сравнение с альт
GEPA optimize_anything: API, который заменит вам инженера по промптам
Обзор GEPA optimize_anything — универсального API для автоматической оптимизации промптов, гиперпараметров и настроек вывода LLM. Сравнение с аналогами, примеры
PDFiles: ищем по картинкам в PDF как по тексту. Локальная LLM, которая видит
Обзор open-source PDFiles для семантического поиска по изображениям в PDF файлах. Локальная LLM, обратный поиск, приватность. Установка, сравнение, примеры.
DSP: когда ваш AI-агент наконец запомнит, где лежат файлы проекта
Data Structure Protocol создает версионируемый граф проекта для AI-агентов. Экономит токены, ускоряет поиск, решает проблему контекстного окна.
BitNet в браузере на любом GPU: пишем WGSL-кернелы с нуля и обходим CUDA
Полный туториал по запуску BitNet LLM в браузере на любом GPU через WebGPU. Пишем WGSL-ядра с нуля для 1-битных моделей. Активация, внимание, слои - всё в брауз
Pantry на Go: решение проблемы амнезии AI-агентов без Python и зависимостей
Как Pantry на Go решает проблему амнезии AI-агентов между сессиями. Сравнение с Echovault, установка, примеры для Claude Code.
Legal RAG Bench переворачивает представление о RAG: Retrieval бьёт Reasoning 2:1
Анализ Legal RAG Bench на 20.02.2026: Kanon 2 Embedder побеждает, ошибки извлечения убивают reasoning, практические выводы для архитектуры RAG-систем.
Context Lens: Я узнал, что Gemini сжирает токены в 15 раз быстрее Claude
Инструмент для анализа расхода токенов в кодинг-агентах. Сравниваем Claude 3.7 Sonnet и Gemini 2.0 Ultra, находим утечки контекста и экономим до 40% на API-вызо
Luma v2.9: как с нуля обучить свою маленькую языковую модель на PyTorch без облаков и API
Пошаговое руководство по обучению Luma v2.9 - маленькой языковой модели с нуля на PyTorch. Локальное обучение без API, структура датасета, персонализация ИИ.
PaddleOCR-VL в llama.cpp: мультиязычный OCR, который не требует GPU
Настройка PaddleOCR-VL в llama.cpp для распознавания текста на 100+ языках. Инструкция, сравнение с альтернативами и примеры использования.
Как использовать 50k датасетов CoT-рассуждений для обучения и оценки своих моделей
Практический обзор огромной коллекции из 50 тысяч датасетов Chain-of-Thought рассуждений на Hugging Face. Узнайте, как загружать, использовать для тонкой настро