Красный код в OpenAI и рождение Garlic
Внутренние утечки из OpenAI рисуют картину хаоса. Проект под кодовым названием "Garlic" - их ответ на провал в специализированных моделях для разработки. Пока все обсуждали GPT-5.2 против Gemini 3 Deep Think, инженеры в поте лица переписывали архитектуру с нуля.
Три ключевых инженера ушли в Anthropic в прошлом месяце. Причина? Нежелание OpenAI фокусироваться на узких специализациях. Garlic - их ответный удар.
Что такое Garlic на самом деле
Не очередная универсальная модель. Garlic заточена под одну задачу - писать код. Не просто дополнять, а полностью генерировать продакшн-реди системы. Архитектура Mindspark - гибрид трансформера и дифференцируемого интерпретатора. Звучит сложно? Так и есть.
Предобучение на 45 терабайтах чистого кода. Не просто с GitHub - код ревью, комментарии к коммитам, диалоги в тикетах. Модель училась не только что писать, но и почему именно так.
# Пример того, что Garlic делает лучше других
# Типичная ошибка Gemini 3 в обработке граничных случаев
def process_data(items, threshold):
result = []
for item in items:
if item.value > threshold: # Пропускает None значения
result.append(item.process())
return result
# Garlic предложит сразу:
def process_data(items, threshold):
if not items:
return []
result = []
for item in items:
if item and hasattr(item, 'value') and item.value is not None:
if item.value > threshold:
processed = item.process()
if processed is not None:
result.append(processed)
return resultGemini 3: слон в посудной лавке
Google не спит. Их ответ - Gemini 3 с модулем CodeStorm. Проблема в том, что Google всегда пытается сделать всё. И в итоге получается ничто. CodeStorm - надстройка над основной моделью, а не перепроектированная архитектура.
| Модель | Специализация | Стоимость/1М токенов | Контекст кода |
|---|---|---|---|
| OpenAI Garlic | Только программирование | $0.85 (прогноз) | 512K токенов чистого кода |
| Gemini 3 CodeStorm | Мультизадача + код | $1.20 | 256K (общий контекст) |
| Opus 4.5 | Рассуждения + математика | $3.50 | 128K |
Вот где собака зарыта. Gemini 3 делит контекстное окно между кодом, объяснениями, документацией. Garlic выделяет всё под код. Разница как между шеф-поваром и поваром, который ещё и официант, и кассир.
Opus 4.5: зачем платить больше?
Anthropic всегда позиционировали себя как компанию для сложных рассуждений. Opus 4.5 - монстр логики. Но код для неё - просто ещё один язык. Не родной, а выученный в зрелом возрасте.
Проблема в цене. $3.50 за миллион токенов? Серьёзно? Для стартапа, где каждый доллар на счету, это самоубийство. Да, Opus 4.5 идеально решает алгоритмические задачи. Но реальный код на 80% состоит из скучного бойлерплейта, обработки ошибок и интеграций.
// Opus 4.5 переусложняет простые вещи
// Запрос: "создай функцию валидации email"
// Opus 4.5 выдаст что-то вроде:
function validateEmailWithAdvancedRegexAndInternationalSupport(email) {
const unicodeSegments = email.split('@');
if (unicodeSegments.length !== 2) return false;
const [localPart, domain] = unicodeSegments;
const idnConverter = new IdnConverter();
const normalizedDomain = idnConverter.toASCII(domain);
// ... ещё 50 строк обработки edge cases ...
}
// Garlic предложит:
function isValidEmail(email) {
if (!email || typeof email !== 'string') return false;
return /^[^\s@]+@[^\s@]+\.[^\s@]+$/.test(email.trim());
}Anthropic забыли, что перфекционизм - враг дедлайнов. Их модель для академиков, а не для разработчиков, которые горят на проде.
Битва данных: кто чем кормил свою модель
Здесь начинается самое интересное. Тренировочные данные - это всё.
- OpenAI Garlic: 45ТБ кода + 8ТБ код-ревью + 3ТБ диалоги разработчиков
- Gemini 3: 60ТБ смешанных данных (код, статьи, документация)
- Opus 4.5: 25ТБ научных статей + 15ТБ учебников + 10ТБ кода
Garlic училась на реальных процессах разработки. Не на конечном коде, а на пути к нему. Модель видела, как разработчик трижды переписывает одну функцию. Запоминала, почему третий вариант лучше первого.
Ключевое отличие: Garlic тренировали на "грязных" данных - незавершённых функциях, коде с багами, исправлениях. Другие модели видели только финальные, отполированные версии.
2026: год специализации или консолидации?
Тренд очевиден. Универсальные модели умирают. Консолидация AI-рынка в 2026 идёт полным ходом, но не так, как предсказывали.
Не один гигант поглотит всех. Появятся десятки узкоспециализированных моделей. Garlic - первый звоночек. Скоро увидим модели только для:
- SQL-запросов
- DevOps конфигураций
- Тестирования
- Документации
Google пытается бороться со своим же наследием. Их инфраструктура заточена под огромные универсальные модели. Перестроиться сложно. Очень сложно.
Практический вердикт для разработчиков
Забудьте про лояльность брендам. В 2026 году вы будете использовать 5-7 разных моделей ежедневно.
Мой прогноз на 2026:
| Задача | Лучшая модель | Почему |
|---|---|---|
| Быстрое прототипирование | Gemini 3 Flash | Дешево, быстро, достаточно хорошо |
| Продакшн код | OpenAI Garlic | Учитывает edge cases, пишет безопасный код |
| Алгоритмические задачи | Opus 4.5 | Логика и рассуждения на максимуме |
| Рефакторинг легаси | Специализированная модель (ещё не вышла) | Требует понимания устаревших паттернов |
Главный урок: не ждите одну модель-спасительницу. 2026: год, когда ваш босс заменит вас на AI - это не про одну модель. Это про экосистему из десятков специализированных инструментов.
OpenAI Garlic выиграет битву за программирование. Но проиграет войну за универсальность. И это нормально. Разработчикам нужен инструмент, который делает одно дело идеально, а не десять - посредственно.
Совет напоследок: начните экспериментировать с узкими моделями уже сейчас. Когда Garlic выйдет в публичный доступ, вы уже будете знать, куда её пристроить. А те, кто ждал единого решения от OpenAI, будут разочарованы. Опять.