Зачем браузеру нейроны?
Представьте: ваш AI-агент пытается зайти в Gmail. Он открывает headless Chrome, делает скриншот, копирует пиксели в память, передает в модель, ждет ответ. 3500 миллисекунд. Три с половиной секунды на один клик. Это не работает.
Neural-Chromium решает проблему кардинально - убирает копирование. Совсем. Браузер рисует страницу прямо в памяти, к которой имеет доступ AI-модель. Zero-copy vision. Это как если бы у модели были глаза внутри самого браузера.
Архитектура: что внутри этого монстра
Neural-Chromium - это не просто Chromium с API. Это переписанная система рендеринга.
1Viz композитор вместо скриншотов
Обычный браузер: DOM → Render Tree → Paint → Composite → Screenshot → Memory Copy → AI.
Neural-Chromium: DOM → Render Tree → Paint → Composite → AI (прямой доступ).
Разница в двух шагах. На практике это 70-85% экономии времени. Viz композитор Chromium теперь отдает данные напрямую, без промежуточных копий.
2Интеграция с Ollama через shared memory
Ollama 0.5.7 научился работать с shared memory регионами. Neural-Chromium создает регион, куда складывает визуальные данные. Ollama читает прямо оттуда. Никаких сокетов, никаких сериализаций JSON с base64.
Внимание: shared memory требует Linux с kernel 5.11+ или Windows 10 20H2+. На macOS пока через mmap эмуляцию с небольшим оверхедом.
3DOM-пранинг на стероидах
Помните статью про DOM-пранинг? Neural-Chromium делает это на уровне рендерера. Невидимые элементы не попадают в визуальный буфер вообще. Экономит до 40% данных для моделей.
Сборка: боль, кровь и терпение
Собрать Neural-Chromium - это как собрать двигатель Ferrari в гараже. Возможно, но нужно знать, куда бить молотком.
Первое: нужен специальный патч для Chromium. Не тот, что в main ветке. Патч от команды Neural-Chromium меняет архитектуру композитора и добавляет API для zero-copy доступа.
| Компонент | Изменения | Версия на 25.01.2026 |
|---|---|---|
| Chromium | Viz композитор, shared memory API | 128.0.6613.138 |
| Ollama интеграция | Прямой доступ к буферам | 0.5.7+ |
| Python биндинги | Async API с asyncio | 2.4.0 |
Сборка занимает 4-6 часов на 32-ядерном процессоре с 64 ГБ RAM. Если у вас меньше - готовьтесь к 12+ часам. Chromium не шутит с ресурсами.
Альтернативы: чем Neural-Chromium не является
Это не on-device браузерный агент на Qwen. Тот работает со стандартным Chrome. Neural-Chromium меняет сам браузер.
Это не AgentCrawl. Тот оптимизирует скрапинг. Neural-Chromium оптимизирует рендеринг.
Ближайший аналог - эксперименты Google с Gemini Nano в Chrome, о которых мы писали ранее. Но там модель встроена в браузер. Здесь браузер адаптирован под внешние модели.
Кому это нужно (а кому - нет)
Нужно:
- Разработчикам AI-агентов, которые устали ждать 3 секунды на действие
- Командам, строящим локальные AI-агенты на стероидах
- Тем, кто работает с чувствительными данными и не может отправлять скриншоты в облако
- Энтузиастам, готовым потратить неделю на настройку
Не нужно:
- Если ваш агент делает 1-2 действия в минуту
- Если вы только начинаете с AI-агентов на Bun
- Если у вас нет доступа к мощному железу для сборки
- Если вам нужна поддержка всех расширений Chrome
Практика: как выглядит работа с Neural-Chromium
API похож на puppeteer, но с нейронным акцентом:
from neural_chromium import NeuralBrowser
import asyncio
async def main():
# Инициализация с моделью из Ollama
browser = await NeuralBrowser.launch(
ollama_model="qwen2.5-coder-32b-instruct",
zero_copy=True, # Включаем магию
headless=True
)
# Страница загружается, рендеринг идет в shared memory
page = await browser.new_page()
await page.goto("https://gmail.com")
# Модель видит страницу БЕЗ копирования
# Задержка: 200-400 мс вместо 3000+
action = await page.ask_ai("Зайди в почту, используя логин test@example.com")
# AI решает, что делать дальше
await action.execute()
await browser.close()
asyncio.run(main())Ключевой момент: page.ask_ai() не делает скриншот. Он передает дескриптор shared memory региона в Ollama. Модель читает пиксели напрямую.
Проблемы, которые все равно останутся
Neural-Chromium не решает проблему входа в Gmail с 2FA. Cookies нужно синхронизировать отдельно.
Не решает проблему медленного поиска - для этого нужны другие оптимизации, как в статье про поиск для AI-агентов.
И самое главное: Neural-Chromium требует, чтобы модель понимала визуальный ввод. Не все модели на 25.01.2026 это умеют. Llama 3.2 90B Vision - умеет. Qwen2.5-Coder-32B-Instruct - умеет. Старые модели без vision-модулей - нет.
Что будет дальше?
Команда Neural-Chromium обещает к середине 2026 года:
- Поддержку WebGPU для прямого доступа моделей к графическому конвейеру
- Интеграцию с DeepAgents CLI для сквозной автоматизации
- Плагин для VSCode, который будет использовать Neural-Chromium для автономного веб-поиска
Но сегодня, в январе 2026, Neural-Chromium - это инструмент для тех, кому важна каждая миллисекунда. Кто готов собрать собственный браузер, чтобы их агенты щелкали интерфейсы как в статье про Screen Vision, но в 5 раз быстрее.
Стоит ли игра свеч? Если вы управляете парком из 100 AI-агентов, которые делают 10 действий в секунду каждый - да. Экономия в 2800 мс на действие дает 280 секунд на агента в секунду. Это математика, которая оправдывает неделю настройки.
Если же ваш агент заходит в Gmail раз в день чтобы проверить почту - возможно, подождите пока Neural-Chromium станет проще в установке. Или используйте обычный headless Chrome с оптимизациями. В мире AI-агентов, как и в жизни, перфекционизм стоит дорого.