Представьте понедельник. У вас горит отчет, нужно разобрать входящие и подготовить презентацию. А ваш любимый зарубежный AI-ассистент снова «лежит» из-за проблем с VPN. Знакомая картина? Мы тоже устали от этой рулетки.
Поэтому взяли и протестировали 33 AI-модели, которые работают в России здесь и сейчас. Без обходных путей. Без серых прокси. Только прямой доступ. И вот что выяснилось.
Не ждите милости от глобальных гигантов
OpenAI, Anthropic, Google – их флагманы вроде GPT-4o, Claude 3.5 Sonnet или Gemini 2.0 Ultra по-прежнему недоступны из РФ напрямую. Официально. На неофициальных зеркалах вас ждет вечная капча, обрезанный контекст и риск блокировки. Забудьте.
Сервисы, требующие VPN, мы в этот обзор не включали. Это не просто неудобно – это риск для корпоративных данных. Если ваш ИИ-ассистент внезапно «потухнет» перед сдачей квартального плана, винить будет некого.
Так что фокус сместился на три лагеря: российские облачные модели, международные проекты с локальной инфраструктурой и open-source, которые можно поставить у себя.
Российская тройка лидеров: уже не догоняют, а диктуют
За последние два года местные вендоры не просто скопировали западные идеи. Они их переварили.
- YandexGPT 3.0 (выход – декабрь 2025): это уже не просто чат. Модель научили работать с таблицами из Яндекс.Документов, искать противоречия в длинных текстах договоров и даже генерировать структуру совещаний с учетом предыдущих решений. Контекст – 128К токенов. Плагин для Excel – отдельный праздник для аналитиков.
- SberGPT 4.0 (обновление – январь 2026): Сбер сделал ставку на безопасность и «корпоративность». Модель отказывается генерировать что-то, что может нарушить compliance. Идеально для HR-задач, но иногда это раздражает, когда нужен креатив. Скорость ответа выросла на 40% после перехода на новые чипы.
- GigaChat Pro (v2.5): Темная лошадка. Не так раскручен, но в наших тестах показал лучшие результаты по работе с технической документацией и кодом. Видимо, сказывается близость к Росатому и инженерным вузам. API стабильный, цены чуть ниже, чем у конкурентов.
Это только вершина айсберга. Полную карту российского ИИ-рынка смотрите в нашем отдельном материале.
Международные, но свои: кто пришел на локальный рынок
Некоторые западные компании, хоть и не афишируя, развернули сервера в Казахстане или Турции. Доступ с российских IP-адресов есть, скорость приемлемая. Главный игрок здесь – Meta с моделью Llama 3.2 (405B). Ее можно использовать через российских партнеров, которые предлагают облачный API. Качество текста на уровне GPT-4 2024 года, но с поддержкой русского чуть хуже. Зато дешево.
Французский Mistral Large 2 тоже пробивается на наш рынок через локальных дистрибьюторов. Модель сильна в логике и структурировании данных. Если нужно разобрать сложный процесс на этапы или найти корневую причину сбоя – она справляется. Кстати, о поиске причин: у нас есть отдельный гайд по этой теме.
Ваш собственный сервер: open-source как панацея?
Звучит идеально: скачал модель, запустил на своем железе, и никаких блокировок. Реальность жестче. Мы протестировали десяток популярных open-source LLM, включая Qwen 2.5 72B, DeepSeek Coder 33B и российскую Saiga 3.0.
Проблемы те же, что и два года назад:
- Железо. Для более-менее умной модели (от 30B параметров) нужна видеокарта минимум на 24 ГБ VRAM. Это дорого.
- Скорость. Генерация ответа может занимать десятки секунд. Для чата – терпимо. Для оперативной работы – нет.
- Качество. Специфические бизнес-задачи (составление коммерческого предложения, анализ P&L) open-source модели часто проваливают. Им не хватает тонкой настройки.
Исключение – маленькие, но боевые агенты, вроде AgentCPM-Explore на 4 миллиарда параметров. Он работает даже на ноутбуке и справляется с цепочками простых задач. Подробнее о нем – в нашем обзоре.
Бенчмарк для менеджера: не баллы, а практика
Мы не смотрели на абстрактные рейтинги типа MMLU. Взяли четыре реальные задачи из дня менеджера средней руки и замерили результат.
| Задача | Лучшая модель | Почему она | Альтернатива подешевле |
|---|---|---|---|
| Написать убедительное коммерческое предложение | YandexGPT 3.0 | Понимает контекст рынка РФ, подбирает нужные бюрократические формулировки, избегает пафоса. | GigaChat Pro (цена на 15% ниже) |
| Проанализировать сводную таблицу и найти аномалии | SberGPT 4.0 | Встроенный модуль анализа данных, выдает не просто «есть выброс», а гипотезу, почему он появился. | Qwen 2.5 72B (self-hosted) |
| Составить протокол совещания с действиями | Claude 3.5 Haiku (через партнера) | Лучше всех структурирует хаотичную дискуссию, не теряет нить. Но доступ нестабилен. | YandexGPT 3.0 (на втором месте) |
| Придумать 10 идей для тимбилдинга | Mistral Large 2 | Креатив без граней, предлагает небанальные варианты. Российские модели тут слишком «правильные». | Llama 3.2 70B |
Интересный побочный эффект: некоторые модели при выполнении HR-задач выдавали решения, нарушающие Трудовой кодекс. Наш тест на прочность показывает, кого стоит держать подальше от кадровых вопросов.
Так что же выбрать? Стратегия на 2026 год
Не верьте тем, кто говорит «просто возьмите одну модель и используйте для всего». Так не работает. Ломается. Почему – мы разбирали здесь.
Вот простая схема:
- Для ежедневной рутины (письма, отчеты, планы) – YandexGPT 3.0. Надежно, быстро, по нашей территории.
- Для аналитики и работы с цифрами – SberGPT 4.0 или специализированные open-source модели, если есть инженер для их поддержки.
- Для мозгового штурма и креатива – ищите способ легально подключиться к Mistral или Llama. Оно того стоит.
- Для экспериментов и контроля данных – свой сервер с open-source. Начните с чего-то маленького вроде AgentCPM-Explore.
Цены? Российские модели дороже западных аналогов на 20-50%. Заплатите за стабильность и отсутствие головной боли с доступом. Open-source – условно бесплатно, если не считать стоимость электричества и админа.
Что будет дальше? Прогноз от 16 марта 2026
К концу года нас ждет два сценария.
Оптимистичный: крупный международный игрок (скорее всего, Meta) официально откроет API для России через местного партнера. Цены упадут, качество вырастет.
Пессимистичный: регуляторы закрутят гайки, и доступ даже к российским облачным моделям усложнится (сертификации, лицензии). На этом фоне выстрелят on-premise-решения. Те самые, что мы описывали в гайде про российские AI-платформы.
Мой совет? Не кладите все яйца в одну корзину. Освойте две модели сегодня. Хотя бы одну облачную и одну, которую можно запустить локально в крайнем случае. Когда политика или технологии сделают очередной кульбит, вы просто переключите тумблер. И продолжите писать тот самый отчет.