Внезапный поворот: почему Apple готова признать поражение в феврале
Марк Гурман из Bloomberg не ошибается часто. Когда он говорит, что Apple готовит "крупнейший анонс в области ИИ за последние пять лет" на февраль 2026 - стоит прислушаться. Но загвоздка в деталях. Этот анонс не про очередную итерацию Ajax. Это про капитуляцию.
Apple, компания, которая десятилетиями гордилась вертикальной интеграцией, собирается поставить Google Gemini в сердце своей экосистемы. Представьте Ford, использующий двигатели Toyota. Звучит абсурдно? Именно это и происходит.
По данным инсайдеров на 25 января 2026, тестовые сборки iOS 27.1 уже содержат полноценную интеграцию Gemini 3.5 Pro в качестве бэкенда для Siri. Локальная модель Ajax-Next остаётся только для базовых команд типа "поставь будильник".
Джаннандреа ушёл не просто так: раскол в Купертино
Отставка Джона Джаннандреа, главы машинного обучения Apple, 15 января 2026 года - не совпадение. Это кульминация двухлетней внутренней войны. С одной стороны - команда Джаннандреа, верившая в собственные модели Ajax. С другой - прагматики во главе с Крейгом Федериги, которые смотрели на отставание в 18-24 месяца от Gemini 3.5 и ChatGPT-5o и понимали: догнать не получится.
"Джон хотел ещё год на доработку Ajax-Next," - рассказывает бывший инженер Apple AI, пожелавший остаться анонимным. "Но тесты показывали: даже их лучшая модель проигрывает Gemini 3.5 Flash в скорости ответа на 40%, а по качеству рассуждений - на 60%. Тим Кук увидел цифры и принял решение."
Что покажут в феврале: не просто "Siri станет умнее"
Забудьте про скучные презентации с графиками. Apple готовит три ключевых демо:
- Контекстный диалог на 100+ шагов: Siri будет помнить не только что вы спрашивали 5 минут назад, но и вчера, и на прошлой неделе. Спросите "напомни, что я хотел купить в том разговоре про ремонт" - и получите список.
- Автономное выполнение цепочек задач: "Запланируй встречу с Майком, найди ресторан рядом с его офисом, забронируй столик на двоих и добавь в календарь" - одна команда, а не четыре отдельных запроса с подтверждениями.
- Мультимодальность без переключения: Покажете Siri скриншот с ошибкой в коде, спросите голосом "в чём проблема?" и получите голосовое объяснение с предложением исправления.
Техническая магия? Нет. Просто Apple наконец-то использует то, что у Google уже работает с 2024 года. Gemini 2.5 уже делала это на Pixel.
Архитектура: гибрид, где Google делает тяжёлую работу
Вот как это будет работать на практике (и почему это гениально и одновременно унизительно для Apple):
| Ваш запрос к Siri | Кто обрабатывает (2026) | Где (2026) | Задержка |
|---|---|---|---|
| "Включи беззвучный режим" | Ajax-Next Nano (локально) | Ваш iPhone 17 Pro | ~100 мс |
| "Сравни эти три модели ноутбуков и скажи, какой лучше для видеомонтажа" | Gemini 3.5 Pro | Серверы Google Cloud (через приватный API) | ~800 мс |
| "Проанализируй этот PDF с договором и выдели спорные пункты" | Gemini 3.5 Pro с 1M контекстом | Google Cloud + локальная предобработка | ~1.2 сек |
Приватность? Apple будет кричать о ней на каждом слайде. Реальность: ваш сложный запрос улетит на серверы Google. Да, зашифрованным. Да, без привязки к Apple ID. Но факт остаётся фактом - данные покидают экосистему.
Что это значит для рынка: смерть "тупых" ассистентов
После февраля 2026 разговор с Alexa или Bixby будет чувствоваться как общение с автоматом по продаже билетов после чата с живым консультантом. Ставки повышаются для всех.
Microsoft уже тестирует интеграцию ChatGPT-5o в Cortana для корпоративных клиентов. Amazon, судя по утечкам, готовит ответ с проектом Bee. Но у них нет миллиарда устройств в карманах пользователей, как у Apple.
Самый интересный вопрос: что будет с проектом Campos? Инсайдеры говорят, что кодовое имя сохранится, но под капотом вместо Ajax-Next будет гибридная система. Campos станет брендом, Gemini - мозгом.
Прогноз аналитиков Morgan Stanley на 25.01.2026: после анонса доля Siri на рынке голосовых ассистентов вырастет с текущих 18% до 35% к концу 2026 года. Основной рост - за счёт пользователей Android, которые перейдут на iPhone ради "нормального" ассистента.
Подводные камни: о чём Apple не расскажет в феврале
1. Цена. Использование Gemini 3.5 Pro стоит Google около $0.12 за 1000 токенов. При миллиарде запросов в день - это $40+ миллионов в день. Кто платит? Скорее всего, Apple, но эти затраты вернутся к пользователям через повышение цен на сервисы.
2. Зависимость. Что будет, если Google решит поднять цены в 2027? Или если регуляторы вмешаются в партнёрство? У Apple нет плана Б - их собственные модели отстают слишком сильно.
3. Фрагментация. Старые iPhone (14 и ниже) не получат полную версию Siri на Gemini - не хватит мощности для локальной предобработки. Создастся двухуровневая система: "умная" Siri для новых устройств и "тупая" для старых.
4. Конфликт интересов. Google теперь одновременно развивает Gemini для Android с уникальными фичами и поставляет движок конкуренту. Где проведут границу?
Что делать вам, пока ждёте анонса
Не покупайте новый iPhone только из-за этой новости. Подождите до осени 2026 - к выходу iPhone 18 архитектура "отшлифуется".
Поэкспериментируйте с Gemini через приложение Google или сторонние приложения типа Todoist Ramble, чтобы понять, с чем будет работать Siri.
И главное - приготовьтесь к тому, что после февраля 2026 "я спросил у Siri" перестанет быть шуткой. Станет обычной практикой. Как поиск в Google в 2005-м.
Apple проиграла битву за ИИ-модели. Но может выиграть войну за ИИ-ассистентов, используя чужие пушки. Цинично? Да. Эффективно? Посмотрим в феврале.