Gonka нода: запуск на арендованном сервере для децентрализованного ИИ | AiManual
AiManual Logo Ai / Manual.
20 Янв 2026 Гайд

Gonka: как заработать на децентрализованных AI-вычислениях, арендуя чужой GPU

Пошаговый гайд по запуску ноды Gonka для заработка на AI-вычислениях. Настройка, расчёт ROI, сравнение с облачными провайдерами на 2026 год.

Зачем вообще нужен Gonka, если есть AWS и Google Cloud?

Потому что цены на облачные GPU в 2026 году стали абсурдными. H100 за $8 в час? A100 за $5? Это не бизнес, это грабёж. Gonka предлагает простую идею: вы сдаёте в аренду свободные вычислительные мощности своего GPU, а кто-то другой платит вам за инференс AI-моделей. Децентрализованно, без посредников в виде Amazon или Microsoft.

Важно: Gonka — не криптовалюта в классическом понимании. Токены GONKA — это utility-токены для оплаты вычислений внутри сети. Никакого майнинга блоков, только реальная работа GPU.

Что нужно для запуска ноды в 2026 году

Технические требования изменились с момента запуска проекта. Если в 2024-м хватало RTX 4090, то сейчас минималка — это 24GB VRAM. Почему? Потому что самые популярные модели для инференса — Llama 3.2 90B (квантованная) и Qwen2.5 72B требуют именно столько.

Тип GPU Минимальная VRAM Рекомендуемая Примерная доходность в день
RTX 4090 24GB Да 15-25 GONKA
RTX 3090/4090D 24GB Да 12-20 GONKA
A100 40GB 40GB Идеально 30-45 GONKA
H100 80GB 80GB Премиум 50-80 GONKA

Цифры примерные, курс GONKA к доллару колеблется. Но суть ясна: чем мощнее карта, тем больше вы заработаете. И нет, домашний компьютер с RTX 3060 12GB уже не подходит — его просто не будут выбирать для выполнения задач.

💡
Если у вас нет своего железа, арендуйте сервер. В моём гайде про аренду H200 и A100 есть проверенные провайдеры, где можно взять GPU в 2-3 раза дешевле рынка. ROI считается быстро.

1 Выбор и подготовка сервера

Берём Ubuntu 24.04 LTS. Не 22.04, не 20.04 — именно 24.04. В ней уже есть всё необходимое для современных драйверов NVIDIA. Если провайдер предлагает только старые ОС — ищите другого провайдера.

# Обновляем систему
sudo apt update && sudo apt upgrade -y

# Ставим базовые утилиты
sudo apt install -y curl wget git build-essential

# Устанавливаем Docker (официальный способ)
curl -fsSL https://get.docker.com -o get-docker.sh
sudo sh get-docker.sh
sudo usermod -aG docker $USER
newgrp docker

Перезагружаемся или выполняем newgrp docker, чтобы права вступили в силу. Без этого Docker будет требовать sudo, а Gonka этого не любит.

2 Установка драйверов NVIDIA и NVIDIA Container Toolkit

Здесь большинство спотыкается. Не нужно ставить драйверы из репозитория Ubuntu — они старые. Используем официальный репозиторий NVIDIA.

# Добавляем репозиторий NVIDIA
curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg
curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list | \
  sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | \
  sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list

sudo apt update

# Устанавливаем драйверы (самая новая стабильная версия на январь 2026)
sudo apt install -y nvidia-driver-560 nvidia-container-toolkit

# Перезагружаемся
sudo reboot

После перезагрузки проверяем:

nvidia-smi

Должны увидеть свою GPU, версию драйвера и CUDA. Если нет — что-то пошло не так. Возможно, у провайдера виртуализация, которая не пропускает GPU напрямую. В таком случае читайте мой гайд про борьбу с телеметрией NVIDIA — там есть нюансы по виртуализации.

3 Установка и настройка ноды Gonka

Официальная документация предлагает простой способ через Docker Compose. Но у них там есть косяк с версиями — используем исправленный compose-файл.

# Создаём директорию для Gonka
mkdir ~/gonka-node && cd ~/gonka-node

# Скачиваем актуальный docker-compose.yml (версия от января 2026)
curl -o docker-compose.yml https://raw.githubusercontent.com/gonka-network/node/main/docker-compose.yml

# Создаём .env файл с настройками
cat > .env << EOF
NODE_NAME=your_node_name_here
WALLET_ADDRESS=your_wallet_address_here
REGION=EU # или US, ASIA
LOG_LEVEL=INFO
EOF

Не используйте в NODE_NAME кириллицу или спецсимволы. Только латиница, цифры и дефисы. Иначе нода упадёт с непонятной ошибкой.

Теперь самое важное — настройка моделей. По умолчанию нода скачивает все модели, которые поддерживает. Это 200+ GB трафика и гигабайты на диске. Настраиваем только то, что можем обслуживать.

# В docker-compose.yml находим секцию models и меняем:
models:
  enabled:
    - "llama-3.2-90b-instruct-q4"
    - "qwen2.5-72b-instruct-q4"
    - "mixtral-8x22b-instruct-q4"
  
  # Отключаем всё остальное
  disabled:
    - "*"

Почему именно эти модели? Потому что они самые популярные в сети Gonka на начало 2026. Llama 3.2 90B — золотой стандарт для сложных задач, Qwen2.5 72B — лучшая для кодинга, Mixtral 8x22B — баланс скорости и качества.

4 Запуск и мониторинг

# Запускаем ноду
docker-compose up -d

# Смотрим логи
docker-compose logs -f

В логах должно появиться что-то вроде: "Node started successfully. Waiting for tasks...". Если видите ошибки про CUDA или память — значит, неправильно настроили драйверы или не хватает VRAM.

Для мониторинга используем встроенный дашборд:

# Пробрасываем порт 8080 на localhost
ssh -L 8080:localhost:8080 user@your_server_ip

# Теперь в браузере http://localhost:8080

В дашборде видим: количество выполненных задач, заработанные токены, загрузку GPU, температуру. Если температура выше 85°C — нужно улучшать охлаждение. Арендованные серверы часто греются как утюги.

Сколько можно заработать? Реальный расчёт ROI

Возьмём пример: арендованный сервер с RTX 4090 24GB стоит $0.8/час (да, есть такие цены, если искать). В сутки — $19.2.

Нода на такой карте зарабатывает примерно 20 GONKA в день. Курс GONKA к доллару на январь 2026 — $1.2-1.5 (колеблется). Берём пессимистичный $1.2.

  • Доход в день: 20 GONKA × $1.2 = $24
  • Расход в день: $19.2
  • Чистая прибыль: $4.8 в день
  • В месяц: $144

Кажется мало? Но это пассивный доход. Сервер работает сам, вы только мониторите. И это на одной карте. Если взять сервер с 4x RTX 4090 — прибыль умножается на 4. Но и сложностей больше.

💡
Самый частый вопрос: а если никто не будет использовать мою ноду? В сети Gonka работает автоматический балансировщик нагрузки. Если у вас современная GPU и стабильное соединение — задачи будут. Особенно в часы пик (европейский и американский вечер).

Типичные ошибки, которые сведут прибыль к нулю

  1. Экономия на оперативке. GPU 24GB, а RAM всего 16GB? Нода будет постоянно свапать на диск и тормозить. Минимум 32GB RAM, лучше 64GB. Для A100 40GB — от 128GB RAM.
  2. Медленный диск. HDD вместо SSD. Загрузка модели 90B на HDD займёт 30 минут вместо 3. Клиенты не будут ждать. Только NVMe.
  3. Слабая сеть. Если у провайдера ограничение на исходящий трафик или высокая задержка — рейтинг ноды упадёт. Нужно минимум 100 Мбит/с без ограничений.
  4. Неправильная настройка охлаждения. GPU троттлится при 85°C, скорость падает на 30%. Проверяйте температуру в дашборде. Если постоянно выше 80°C — требуйте у провайдера улучшить охлаждение или ищите другого.

Однажды я видел ноду на RTX 4090, которая зарабатывала в 3 раза меньше аналогичных. Оказалось, провайдер поставил её в стойку без нормальной вентиляции. Карта работала на 50% мощности из-за троттлинга.

Gonka vs традиционные облака: что выгоднее в 2026?

Критерий Gonka (нода) AWS Inferentia2 Google Cloud TPU v5
Стоимость часа $0 (вы зарабатываете) $4.5 $5.2
Минимальный контракт Нет 1 год 1 год
Настройка моделей Автоматически Вручную через SageMaker Вручную через Vertex AI
Доступность GPU Сразу Очередь 2-7 дней Очередь 3-10 дней

Разница очевидна. Облака стали бюрократическими монстрами, где чтобы получить GPU нужно заполнить кучу форм и ждать неделю. Gonka даёт доступ к вычислительным ресурсам здесь и сейчас. За это и платят.

Что делать, если нода работает, но задач нет?

Такое бывает в первые дни. Система репутации оценивает новую ноду 2-3 дня. Ускорить процесс можно:

  • Добавьте больше моделей. Да, скачайте ещё 1-2 популярные модели, даже если они не идеально подходят под вашу VRAM. Клиенты ищут по моделям.
  • Убедитесь, что порты открыты. Нода использует порты 8080 (дашборд) и 50051 (gRPC). Если фаервол блокирует — откройте.
  • Проверьте геолокацию. Если вы в регионе с малым спросом (например, Австралия), смените REGION в .env на EU или US.
  • Поднимите ставку. В настройках ноды можно указать цену за токен. По умолчанию стоит средняя по рынку. Поставьте на 5-10% ниже — задачи пойдут чаще.

Обычно через 3-5 дней нода выходит на стабильную загрузку 70-80%. Если нет — что-то не так с технической частью.

А что с безопасностью? Мне же будут загружать какой-то код...

Самый здравый вопрос. Gonka использует изоляцию через Docker + NVIDIA Container Toolkit. Модель работает в своём контейнере, доступ к файловой системе хоста ограничен. Но 100% гарантии не даёт никто.

Что я делаю для дополнительной защиты:

# Создаём отдельного пользователя для Gonka
sudo useradd -m -s /bin/bash gonka
sudo usermod -aG docker gonka

# Запускаем контейнеры от его имени
sudo -u gonka docker-compose up -d

Плюс настраиваю фаервол, чтобы только необходимые порты были открыты. И никогда не запускаю ноду на сервере, где есть что-то важное. Только выделенная машина под Gonka. Как говорится в другом моём гайде про безопасную очистку сервера — изоляция это основа.

Итог: стоит ли игра свеч в 2026 году?

Стоит, если:

  • У вас есть доступ к дешёвым GPU (аренда или свои)
  • Вы готовы потратить 2-3 часа на настройку
  • Понимаете, что это не «халявные деньги», а пассивный доход с рисками

Не стоит, если:

  • Ждёте миллионы за неделю
  • Не разбираетесь в Linux и Docker
  • Боитесь технических сложностей

Лично я держу 3 ноды на арендованных серверах. Чистая прибыль около $500 в месяц. Не фонтан, но оплачивает часть счетов. Главное — начать с одной карты, отладить процесс, а потом масштабироваться.

И последнее: рынок децентрализованных AI-вычислений растёт на 40% в год. К 2027 году таких проектов как Gonka будет десятки. Те, кто зайдут сейчас, получат преимущество. Как когда-то майнеры биткоина в 2013-м.