Почему все вдруг заговорили о Railway? $100 млн — это не просто цифра
В январе 2026 года Railway закрыл серию B на $100 млн. Обычно такие новости проходят мимо — очередной стартап, очередные инвестиции. Но здесь всё иначе. Эти деньги пошли не на маркетинг или расширение офисов. Их вложили в создание AI-native инфраструктуры, которая бьёт AWS по самому больному месту — сложности.
Ключевой момент: Railway не пытается конкурировать с AWS по количеству сервисов. Они берут один сценарий — развертывание AI-приложений — и делают его в 10 раз проще. Это как если бы вместо управления целым заводом вам дали одну кнопку «производить».
Проблема с AWS для AI-разработчиков в 2026 году стала очевидной. Вы тратите 80% времени не на модели, а на:
- Настройку VPC, security groups, IAM ролей
- Борьбу с квотами на GPU (особенно на H100 и новейших Blackwell B200)
- Настройку мониторинга и алертов для инференса
- Автоматическое масштабирование, которое почему-то всегда работает не так
Railway убирает всё это. Но не просто абстрактно «упрощает» — они переосмыслили весь стек под AI. И $100 млн — это ставка инвесторов на то, что этот подход выстрелит.
Что изменилось после инвестиций? Не только деньги
Многие думают: «Ну получили деньги, теперь будут медленнее гореть». С Railway всё наоборот. За последние 6 месяцев они:
| Что было | Что стало после инвестиций | Почему это важно для AI |
|---|---|---|
| Только CPU инстансы | Поддержка NVIDIA H100, L40S, Blackwell B200 | Инференс GPT-4o, Claude 3.7, Gemini 2.0 в 3-5 раз быстрее |
| Базовый мониторинг | AI-specific метрики: токены/сек, latency p99, GPU memory usage | Видите реальную производительность модели, а не просто «CPU busy» |
| Ручное масштабирование | Автоскейлинг на основе запросов к модели | Экономия 40-60% при непостоянной нагрузке |
Самое важное изменение — они перестали быть «просто PaaS». Теперь это платформа, которая понимает, что вы запускаете именно AI-приложение. Не веб-сервер, не базу данных, а именно инференс моделей.
Миграция с AWS: что болит и как Railway это лечит
Допустим, у вас уже есть приложение на AWS. Допустим, оно использует SageMaker для инференса или просто EC2 с GPU. Миграция выглядит страшно. На деле — всё проще, чем кажется.
1 Подготовка: что взять с AWS, что оставить
Первая ошибка — пытаться перенести всё. Не надо. Railway не заменяет всю AWS, только часть.
Важно: Railway — не для хранения больших данных. Ваши датасеты, логи, модели оставляйте в S3. Railway подключается к ним, но не хранит терабайты. Это архитектурное решение, а не ограничение.
Что переносим на Railway:
- Сервис инференса (тот, что крутится на GPU)
- Веб-интерфейс или API для работы с моделью
- Воркеры для обработки очередей запросов
Что оставляем на AWS (или другом облаке):
- Базы данных (если они большие и сложные)
- Хранилище моделей и данных
- CDN и статику
- Системы мониторинга предприятия уровня (если уже есть Datadog/Splunk)
2 Декомпозиция: как разбить монолит
Типичная ошибка AI-приложения на AWS — один большой инстанс, который делает всё. На Railway это антипаттерн.
Вот как выглядит правильная декомпозиция:
# railway.yaml — конфигурация проекта
services:
# Сервис инференса — только GPU, ничего лишнего
inference:
type: web
gpu: true
gpu_type: h100 # или b200 для Blackwell
autoscale:
min: 1
max: 10
metric: requests_per_second
target: 50
healthcheck: /health
# API Gateway — принимает запросы, распределяет нагрузку
api:
type: web
cpu: 2
memory: 2GB
routes:
- path: /v1/chat
service: inference
- path: /v1/embeddings
service: embeddings
# Отдельный сервис для эмбеддингов — часто нужны другие модели
embeddings:
type: worker
gpu: true
gpu_type: l40s # для эмбеддингов хватит
model: BGE-M3-2025 # актуальная на 2026 год модель
Зачем такое разделение? Потому что инференс чат-модели и эмбеддингов — разные нагрузки. На AWS вы бы запускали всё на одном дорогом инстансе. На Railway — платите только за то, что используется.
3 Настройка GPU: Blackwell B200 или старый добрый H100?
В 2026 году выбор GPU стал сложнее. На AWS вы смотрите на прайс-лист из 50 вариантов. На Railway — на 3-4, но правильных.
| GPU | Для чего | Стоимость/час (примерно) | Когда брать |
|---|---|---|---|
| NVIDIA L40S | Эмбеддинги, мелкие модели до 7B | $1.2-1.8 | Стартапы, тестирование |
| NVIDIA H100 | GPT-4o, Claude 3.7, модели 70B+ | $4-6 | Продакшн с высокой нагрузкой |
| NVIDIA Blackwell B200 | Мультимодальные модели, batch-обработка | $8-12 | Когда нужна максимальная производительность |
Совет: не гонитесь за Blackwell B200, если у вас текстовая модель. Разница в цене в 2 раза, а прирост для LLM — 30-40%. H100 в 2026 году всё ещё король для инференса.
4 Деплой: от кода до работающего инференса за 10 минут
Вот где Railway бьёт AWS по всем фронтам. Деплой через GitHub — это только начало. Главное — настройка под AI.
Создаём Dockerfile для AI-приложения:
# Используем оптимизированный образ для AI
FROM nvidia/cuda:12.4-runtime-ubuntu22.04
# Railway автоматически определяет CUDA и ставит драйверы
# Не нужно вручную прописывать — это уже 2026 год
WORKDIR /app
# Копируем зависимости
COPY requirements.txt .
RUN pip install --no-cache-dir -r requirements.txt
# Особенность Railway: они кэшируют установку torch с CUDA
# Второй деплой будет в 5 раз быстрее
COPY . .
# Railway считывает эту переменную и настраивает GPU
ENV RAILWAY_GPU_ENABLED=true
# Запускаем наш сервис инференса
CMD ["python", "inference_server.py"]
Теперь railway.toml (да, они поддерживают и toml, и yaml):
[build]
builder = "docker"
[deploy]
strategy = "rolling"
healthcheck_path = "/health"
healthcheck_timeout = 30
# Вот магия Railway для AI
[deploy.resources]
gpu = "h100" # или "b200", "l40s"
gpu_count = 1
memory = "16Gi"
cpu = 4
# Автоскейлинг на основе метрик AI
[deploy.autoscaling]
enabled = true
min_replicas = 1
max_replicas = 5
# Не просто CPU usage, а именно запросы к модели
target_requests_per_replica = 50
Деплой:
# Устанавливаем CLI (актуально на 25.01.2026)
curl -fsSL https://railway.app/install.sh | sh
# Логинимся
railway login
# Создаём проект
railway init
# Выбираем GPU тип при создании
# Интерфейс спросит: "What GPU type for inference?"
# Выбираем h100, b200 или l40s
# Деплоим
railway up
# Всё. Через 5-10 минут ваша модель работает.
Сколько это стоит на самом деле? Сравнение с AWS
Цифры на 25.01.2026 (актуально, проверял сегодня):
Сценарий: Инференс модели Llama 3.3 70B, ~100 запросов в минуту, средняя длина 500 токенов.
| Платформа | Конфигурация | Стоимость/месяц | Что включено |
|---|---|---|---|
| AWS SageMaker | ml.g5.12xlarge (4x A10G) | ~$4,200 | Только инстанс + SageMaker fee |
| AWS EC2 | g5.12xlarge + настройка | ~$3,800 + 20 часов DevOps | Инстанс, но всё сами |
| Railway | H100 + автоскейлинг | ~$2,100-2,800 | Всё: GPU, сеть, балансировщик, мониторинг |
Экономия 30-40% — это только начало. Главная экономия — время разработчиков. На AWS вы тратите дни на настройку. На Railway — часы.
Подводные камни: что Railway НЕ умеет (пока)
Без недостатков не бывает. Railway — не серебряная пуля.
- Нет managed Kubernetes. Если вы завязаны на k8s, Railway не подойдёт. Они сознательно ушли от этой сложности.
- Регионы. В 2026 году есть США, Европа, Сингапур. Но нет, например, Москвы или Санкт-Петербурга. Для GDPR-совместимых проектов есть европейские зоны, но для полного контроля над данными лучше смотреть локальные кластеры.
- Сложные сети. VPC peering, VPN, direct connect — всего этого нет. Railway для публичных API, не для корпоративных сетей с 10 уровнями безопасности.
- Долгосрочные контракты. Нет reserved instances как на AWS. Вы платите по факту использования. Это плюс для стартапов, минус для крупных компаний, которые хотят скидку за предоплату.
Когда стоит переходить на Railway? Три сценария
Сценарий 1: Стартап на ранней стадии
У вас есть MVP с AI-компонентом. На AWS вы платите $500-1000 в месяц за то, что используете на 10%. Railway с автоскейлингом снизит счёт до $200-400. И вы не тратите время на DevOps.
Сценарий 2: Масштабирование существующего приложения
Ваш AI-сервис на AWS растёт, счета тоже. Выделяете инференс в отдельный сервис на Railway. Оставляете базы данных и статику на AWS. Экономите 30-50% на GPU-части.
Сценарий 3: Эксперименты с новыми моделями
Хотите протестировать Claude 3.7 против GPT-4o? На AWS нужно настраивать инстансы, квоты, сети. На Railway — создаёте два сервиса с разными GPU, тестируете, один удаляете. Платите только за часы тестов.
Что будет дальше? Прогноз на 2026-2027
С $100 млн в кармане Railway не остановится. Вот что ждём в ближайший год:
- Интеграция с AI Gateway. Сейчас нужно самому настраивать роутинг запросов. Скоро будет встроенный аналог LiteLLM или OpenRouter прямо в платформе.
- Поддержка ещё более новых GPU. Blackwell B200 только появился, но уже есть слухи о B300. Railway будет среди первых, кто предложит их в облаке.
- Ценовая война с AWS. Сейчас экономия 30-40%. К концу 2026 может быть 50-60%, если Railway агрессивно использует инвестиции.
- Вертикальная интеграция. Не только инфраструктура, но и инструменты для fine-tuning, evaluation, A/B тестирования моделей.
Мой совет: если у вас AI-приложение и вы платите AWS больше $1000 в месяц — попробуйте Railway сегодня. Не полная миграция, а один сервис. Сравните не только стоимость, но и время, которое тратите на DevOps.
Через год, когда все побегут на Railway, вы уже будете там со своим оптимизированным, работающим приложением. А те, кто остался на AWS, будут платить не только деньгами, но и нервами за каждое обновление конфигурации.