В 2025 году Google наговорил много. Med-PaLM 3 в медицине, Personal Intelligence AI Mode, который читает ваши письма, 60 главных анонсов, изменивших всё. Шум, гам, презентации.
А потом тишина.
После скандалов с AI Overviews (помните советы есть клей?) и растущего давления регуляторов, в Google нажали на паузу. Не на разработку — там как раз кипит работа. На публичную риторику.
Теперь они говорят не о том, что ИИ умеет, а о том, зачем он нужен. Human-Centered AI — не новый термин. Но в устах Google на 2026 год он звучит как покаяние и манифест одновременно.
Цель первая: ИИ как усилитель, а не замена
Звучит банально? Попробуйте сказать это разработчику, чей код теперь пишет Gemini Code Assist. Или дизайнеру, которого "оптимизировали" после внедрения AI-инструментов.
Google наконец-то признал: автоматизация — это побочный эффект, а не цель. Их внутреннее исследование показало странную вещь. Компании, которые внедряли ИИ для экономии времени, проигрывали тем, кто использовал его для раскрытия потенциала сотрудников.
Разница в цифрах: первые сокращали штат на 15%, но теряли 40% инноваций. Вторые увеличивали креативность команд на 65% при том же бюджете.
Пример из медицины. Вместо того чтобы заменить рентгенолога системой AI-скрининга (которая, кстати, уже на 15% точнее человека), Google Health встраивает ИИ как "вторую пару глаз". Алгоритм находит микроузелки, врач интерпретирует контекст. Человек остаётся в центре принятия решений.
Проблема в том, что эту философию сложно продать акционерам. "Мы не заменим людей, мы сделаем их дороже" — не самый популярный слайд на квартальных отчётах.
Цель вторая: прозрачность как функция, а не опция
До 2025 года прозрачность ИИ в Google выглядела так: "Наша модель обучена на разнообразных данных". Конец объяснения.
Сейчас они внедряют систему объяснений для каждой значимой рекомендации. Если Gemini советует изменить дозировку лекарства в Med-PaLM 3, она показывает: "На основе 3 клинических исследований 2024-2025 годов, с учётом вашего возраста и анамнеза".
Но вот что интересно. Прозрачность — это не про доверие. Это про контроль.
В Personal Intelligence AI Mode это работает так: "Я предлагаю забронировать столик в ресторане X, потому что в прошлый раз вы оценили его на 5 звёзд, а завтра у вашей жены день рождения". Не "Вот куда вам пойти".
Сложность? Объяснения замедляют работу. И иногда показывают неприятную правду о том, как именно ИИ принимает решения.
Цель третья: культурная инклюзивность как требование, а не пожелание
Здесь Google наступает на самые больные мозоли. Западные ИИ-модели, обученные на английских данных, плохо работают в Азии, Африке, даже в Восточной Европе.
Ответ Google — не "обучим одну модель на всех". А "создадим фреймворк для культурной адаптации".
Пример: в Сингапуре, где DeepMind открыл исследовательский центр, ИИ для здравоохранения учится учитывать местные диетические привычки, генетические особенности населения, даже отношение к традиционной медицине.
Но культурная инклюзивность — это не только про географию. Это про возраст, образование, социальный статус.
| Проблема | Старый подход Google | Новый подход (2026) |
|---|---|---|
| Медицинские рекомендации | На основе западных клинических руководств | Адаптация под местные протоколы и доступность лекарств |
| Финансовые советы | Универсальные стратегии инвестирования | Учёт местных налоговых законов и культурного отношения к долгам |
| Образовательный контент | Перевод с английского | Создание контента с учётом местной учебной программы и педагогических традиций |
Самое сложное здесь — избежать фолк-психологии. "Азиаты любят коллективизм, поэтому..." Google нанимает антропологов, социологов, местных экспертов. Дорого? Невероятно. Но дешевле, чем провалиться на рынке в 4 миллиарда человек.
А что на практике?
В теории три цели звучат благородно. На практике каждая требует жертв.
ИИ как усилитель значит, что некоторые задачи никогда не будут автоматизированы полностью. Даже если алгоритм справится лучше человека. Потому что ценность — в человеческом суждении, а не в эффективности.
Прозрачность замедляет разработку. Каждое объяснение нужно проектировать, тестировать, локализовать. Конкуренты из Meta и OpenAI показывают результаты быстрее — их модели просто выдают ответ без "объяснительной записки".
Культурная инклюзивность — это отказ от масштабирования "один размер для всех". Вместо одной гигантской модели Gemini 3.0 Ultra — десятки адаптированных версий для разных регионов.
Парадокс: чтобы ИИ стал по-настоящему глобальным, он должен стать локальным. Google инвестирует в региональные исследовательские центры в Сингапуре, Найроби, Сан-Паулу. Не для сбора данных, а для создания моделей с нуля.
Скептики скажут: это пиар после провалов. Оптимисты — что Google наконец-то взрослеет. Реальность где-то посередине.
Human-Centered AI не сделает технологии добрее. Но он может сделать их полезнее. Не для абстрактного "человечества", а для конкретного человека с его культурой, образованием, страхами и надеждами.
Google ставит на эту философию в 2026 году. Риск огромный. Если конкуренты продолжат гнаться за параметрами и скоростью, а Google замедлится ради "человекоцентричности", он может проиграть гонку.
Но если окажется, что людям нужен не самый умный ИИ, а самый понятный и уважительный — тогда эти три цели станут не философией, а конкурентным преимуществом.
Проверка простая. В следующий раз, когда Gemini что-то предложит, спросите себя: чувствуете ли вы себя инструментом в руках алгоритма? Или партнёром в диалоге с интеллектом, который действительно пытается помочь?
Ответ на этот вопрос определит, работает ли Human-Centered AI. Или это просто красивые слова на фоне всё той же погони за эффективностью.