Зачем вообще нужен Gonka, если есть AWS и Google Cloud?
Потому что цены на облачные GPU в 2026 году стали абсурдными. H100 за $8 в час? A100 за $5? Это не бизнес, это грабёж. Gonka предлагает простую идею: вы сдаёте в аренду свободные вычислительные мощности своего GPU, а кто-то другой платит вам за инференс AI-моделей. Децентрализованно, без посредников в виде Amazon или Microsoft.
Важно: Gonka — не криптовалюта в классическом понимании. Токены GONKA — это utility-токены для оплаты вычислений внутри сети. Никакого майнинга блоков, только реальная работа GPU.
Что нужно для запуска ноды в 2026 году
Технические требования изменились с момента запуска проекта. Если в 2024-м хватало RTX 4090, то сейчас минималка — это 24GB VRAM. Почему? Потому что самые популярные модели для инференса — Llama 3.2 90B (квантованная) и Qwen2.5 72B требуют именно столько.
| Тип GPU | Минимальная VRAM | Рекомендуемая | Примерная доходность в день |
|---|---|---|---|
| RTX 4090 | 24GB | Да | 15-25 GONKA |
| RTX 3090/4090D | 24GB | Да | 12-20 GONKA |
| A100 40GB | 40GB | Идеально | 30-45 GONKA |
| H100 80GB | 80GB | Премиум | 50-80 GONKA |
Цифры примерные, курс GONKA к доллару колеблется. Но суть ясна: чем мощнее карта, тем больше вы заработаете. И нет, домашний компьютер с RTX 3060 12GB уже не подходит — его просто не будут выбирать для выполнения задач.
1 Выбор и подготовка сервера
Берём Ubuntu 24.04 LTS. Не 22.04, не 20.04 — именно 24.04. В ней уже есть всё необходимое для современных драйверов NVIDIA. Если провайдер предлагает только старые ОС — ищите другого провайдера.
# Обновляем систему
sudo apt update && sudo apt upgrade -y
# Ставим базовые утилиты
sudo apt install -y curl wget git build-essential
# Устанавливаем Docker (официальный способ)
curl -fsSL https://get.docker.com -o get-docker.sh
sudo sh get-docker.sh
sudo usermod -aG docker $USER
newgrp docker
Перезагружаемся или выполняем newgrp docker, чтобы права вступили в силу. Без этого Docker будет требовать sudo, а Gonka этого не любит.
2 Установка драйверов NVIDIA и NVIDIA Container Toolkit
Здесь большинство спотыкается. Не нужно ставить драйверы из репозитория Ubuntu — они старые. Используем официальный репозиторий NVIDIA.
# Добавляем репозиторий NVIDIA
curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg
curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list | \
sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | \
sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list
sudo apt update
# Устанавливаем драйверы (самая новая стабильная версия на январь 2026)
sudo apt install -y nvidia-driver-560 nvidia-container-toolkit
# Перезагружаемся
sudo reboot
После перезагрузки проверяем:
nvidia-smi
Должны увидеть свою GPU, версию драйвера и CUDA. Если нет — что-то пошло не так. Возможно, у провайдера виртуализация, которая не пропускает GPU напрямую. В таком случае читайте мой гайд про борьбу с телеметрией NVIDIA — там есть нюансы по виртуализации.
3 Установка и настройка ноды Gonka
Официальная документация предлагает простой способ через Docker Compose. Но у них там есть косяк с версиями — используем исправленный compose-файл.
# Создаём директорию для Gonka
mkdir ~/gonka-node && cd ~/gonka-node
# Скачиваем актуальный docker-compose.yml (версия от января 2026)
curl -o docker-compose.yml https://raw.githubusercontent.com/gonka-network/node/main/docker-compose.yml
# Создаём .env файл с настройками
cat > .env << EOF
NODE_NAME=your_node_name_here
WALLET_ADDRESS=your_wallet_address_here
REGION=EU # или US, ASIA
LOG_LEVEL=INFO
EOF
Не используйте в NODE_NAME кириллицу или спецсимволы. Только латиница, цифры и дефисы. Иначе нода упадёт с непонятной ошибкой.
Теперь самое важное — настройка моделей. По умолчанию нода скачивает все модели, которые поддерживает. Это 200+ GB трафика и гигабайты на диске. Настраиваем только то, что можем обслуживать.
# В docker-compose.yml находим секцию models и меняем:
models:
enabled:
- "llama-3.2-90b-instruct-q4"
- "qwen2.5-72b-instruct-q4"
- "mixtral-8x22b-instruct-q4"
# Отключаем всё остальное
disabled:
- "*"
Почему именно эти модели? Потому что они самые популярные в сети Gonka на начало 2026. Llama 3.2 90B — золотой стандарт для сложных задач, Qwen2.5 72B — лучшая для кодинга, Mixtral 8x22B — баланс скорости и качества.
4 Запуск и мониторинг
# Запускаем ноду
docker-compose up -d
# Смотрим логи
docker-compose logs -f
В логах должно появиться что-то вроде: "Node started successfully. Waiting for tasks...". Если видите ошибки про CUDA или память — значит, неправильно настроили драйверы или не хватает VRAM.
Для мониторинга используем встроенный дашборд:
# Пробрасываем порт 8080 на localhost
ssh -L 8080:localhost:8080 user@your_server_ip
# Теперь в браузере http://localhost:8080
В дашборде видим: количество выполненных задач, заработанные токены, загрузку GPU, температуру. Если температура выше 85°C — нужно улучшать охлаждение. Арендованные серверы часто греются как утюги.
Сколько можно заработать? Реальный расчёт ROI
Возьмём пример: арендованный сервер с RTX 4090 24GB стоит $0.8/час (да, есть такие цены, если искать). В сутки — $19.2.
Нода на такой карте зарабатывает примерно 20 GONKA в день. Курс GONKA к доллару на январь 2026 — $1.2-1.5 (колеблется). Берём пессимистичный $1.2.
- Доход в день: 20 GONKA × $1.2 = $24
- Расход в день: $19.2
- Чистая прибыль: $4.8 в день
- В месяц: $144
Кажется мало? Но это пассивный доход. Сервер работает сам, вы только мониторите. И это на одной карте. Если взять сервер с 4x RTX 4090 — прибыль умножается на 4. Но и сложностей больше.
Типичные ошибки, которые сведут прибыль к нулю
- Экономия на оперативке. GPU 24GB, а RAM всего 16GB? Нода будет постоянно свапать на диск и тормозить. Минимум 32GB RAM, лучше 64GB. Для A100 40GB — от 128GB RAM.
- Медленный диск. HDD вместо SSD. Загрузка модели 90B на HDD займёт 30 минут вместо 3. Клиенты не будут ждать. Только NVMe.
- Слабая сеть. Если у провайдера ограничение на исходящий трафик или высокая задержка — рейтинг ноды упадёт. Нужно минимум 100 Мбит/с без ограничений.
- Неправильная настройка охлаждения. GPU троттлится при 85°C, скорость падает на 30%. Проверяйте температуру в дашборде. Если постоянно выше 80°C — требуйте у провайдера улучшить охлаждение или ищите другого.
Однажды я видел ноду на RTX 4090, которая зарабатывала в 3 раза меньше аналогичных. Оказалось, провайдер поставил её в стойку без нормальной вентиляции. Карта работала на 50% мощности из-за троттлинга.
Gonka vs традиционные облака: что выгоднее в 2026?
| Критерий | Gonka (нода) | AWS Inferentia2 | Google Cloud TPU v5 |
|---|---|---|---|
| Стоимость часа | $0 (вы зарабатываете) | $4.5 | $5.2 |
| Минимальный контракт | Нет | 1 год | 1 год |
| Настройка моделей | Автоматически | Вручную через SageMaker | Вручную через Vertex AI |
| Доступность GPU | Сразу | Очередь 2-7 дней | Очередь 3-10 дней |
Разница очевидна. Облака стали бюрократическими монстрами, где чтобы получить GPU нужно заполнить кучу форм и ждать неделю. Gonka даёт доступ к вычислительным ресурсам здесь и сейчас. За это и платят.
Что делать, если нода работает, но задач нет?
Такое бывает в первые дни. Система репутации оценивает новую ноду 2-3 дня. Ускорить процесс можно:
- Добавьте больше моделей. Да, скачайте ещё 1-2 популярные модели, даже если они не идеально подходят под вашу VRAM. Клиенты ищут по моделям.
- Убедитесь, что порты открыты. Нода использует порты 8080 (дашборд) и 50051 (gRPC). Если фаервол блокирует — откройте.
- Проверьте геолокацию. Если вы в регионе с малым спросом (например, Австралия), смените REGION в .env на EU или US.
- Поднимите ставку. В настройках ноды можно указать цену за токен. По умолчанию стоит средняя по рынку. Поставьте на 5-10% ниже — задачи пойдут чаще.
Обычно через 3-5 дней нода выходит на стабильную загрузку 70-80%. Если нет — что-то не так с технической частью.
А что с безопасностью? Мне же будут загружать какой-то код...
Самый здравый вопрос. Gonka использует изоляцию через Docker + NVIDIA Container Toolkit. Модель работает в своём контейнере, доступ к файловой системе хоста ограничен. Но 100% гарантии не даёт никто.
Что я делаю для дополнительной защиты:
# Создаём отдельного пользователя для Gonka
sudo useradd -m -s /bin/bash gonka
sudo usermod -aG docker gonka
# Запускаем контейнеры от его имени
sudo -u gonka docker-compose up -d
Плюс настраиваю фаервол, чтобы только необходимые порты были открыты. И никогда не запускаю ноду на сервере, где есть что-то важное. Только выделенная машина под Gonka. Как говорится в другом моём гайде про безопасную очистку сервера — изоляция это основа.
Итог: стоит ли игра свеч в 2026 году?
Стоит, если:
- У вас есть доступ к дешёвым GPU (аренда или свои)
- Вы готовы потратить 2-3 часа на настройку
- Понимаете, что это не «халявные деньги», а пассивный доход с рисками
Не стоит, если:
- Ждёте миллионы за неделю
- Не разбираетесь в Linux и Docker
- Боитесь технических сложностей
Лично я держу 3 ноды на арендованных серверах. Чистая прибыль около $500 в месяц. Не фонтан, но оплачивает часть счетов. Главное — начать с одной карты, отладить процесс, а потом масштабироваться.
И последнее: рынок децентрализованных AI-вычислений растёт на 40% в год. К 2027 году таких проектов как Gonka будет десятки. Те, кто зайдут сейчас, получат преимущество. Как когда-то майнеры биткоина в 2013-м.