Когда в начале 2025 года Microsoft объявила о сокращении 15 000 инженеров под лозунгом "оптимизации процессов", рынок пожал плечами. Еще одна реструктуризация, ничего необычного. Генеральный директор Сатья Наделла тогда заявил: "GitHub Copilot X и наши внутренние ИИ-инструменты позволяют достичь 30% автоматизации кодирования. Это будущее разработки".
Спустя год это будущее выглядит как кошмарный сон системного администратора.
Ноябрьское обновление, которое все сломало
Обновление Windows 11 23H2, выпущенное в ноябре 2025 года, должно было стать рутинным патчем безопасности. Вместо этого миллионы пользователей столкнулись с:
- Случайными BSOD (синими экранами смерти) при подключении USB-накопителей
- Полным отказом Windows Defender, который переставал обновлять базы вирусов
- Сбоями в работе диспетчера задач — процессы отображались с отрицательным потреблением памяти
- Автоматическим удалением системных файлов "для оптимизации дискового пространства"
По данным аналитиков Gartner на февраль 2026 года, количество критических инцидентов после обновления выросло на 400% по сравнению с аналогичным периодом 2024 года. Техподдержка Microsoft получила 2,3 миллиона обращений за первые 72 часа.
Самое интересное? Многие из этих багов выглядели... странно. Как будто их написал кто-то, кто прекрасно знает синтаксис C++, но не понимает, как работает операционная система.
"Призраки в машине": что нашли в коде
Когда энтузиасты начали разбирать обновление, они обнаружили любопытные артефакты. Комментарии в коде, которые не имели смысла в контексте функции. Повторяющиеся блоки с минимальными изменениями. И самое главное — следы автоматической генерации.
Один из самых показательных примеров — функция очистки кэша в Windows Defender:
Бывший инженер Microsoft (попросивший не называть его имени) рассказал мне: "Мы видели, как это происходит. Командам ставили KPI — 30% кода должно генерироваться ИИ. Люди начинали использовать Copilot для всего, даже не проверяя логику. Потом эти PR (pull requests) проходили ревью у таких же загруженных коллег, которые просматривали по 50-70 коммитов в день. Качество просто проваливалось".
Связь, которую отрицают, но которая очевидна
Давайте посмотрим на временную шкалу:
| Дата | Событие | Последствия |
|---|---|---|
| Январь 2025 | Microsoft увольняет 15 000 инженеров (40% разработчиков Windows) | Сокращение опытных кадров |
| Март 2025 | Внедрение обязательного использования GitHub Copilot Enterprise | KPI: 30% AI-генерированного кода |
| Август 2025 | Первые сообщения о странных багах в инсайдерских сборках | Игнорированы как "незначительные" |
| Ноябрь 2025 | Выпуск обновления 23H2 | Массовые сбои, критические уязвимости |
| Февраль 2026 | Текущая ситуация | Microsoft откатывает обновления, нанимает контракторов |
Это не совпадение. Это закономерность. Когда ты заменяешь опытных разработчиков инструментами, которые, как показал "провал Copilot", все еще страдают от галлюцинаций и уязвимостей — получаешь именно такой результат.
Культурный сдвиг, который все испортил
Проблема не в том, что ИИ-инструменты плохи. Проблема в том, как их внедрили. Вместо постепенного, контролируемого внедрения с сохранением экспертизы, Microsoft пошла путем массовой замены.
"Нас заставляли использовать Copilot для всего, — говорит еще один бывший сотрудник. — Даже когда мы видели, что он генерирует неоптимальный или опасный код, менеджеры говорили: 'Исправьте потом, главное — скорость'. Но 'потом' никогда не наступало, потому что следующий спринт был еще более загруженным после сокращений".
Ситуация напоминает историю с West Midlands Police, где ИИ начал выписывать запреты на выдуманных хулиганов. Тот же принцип: технологию внедрили без понимания ее ограничений, без человеческого надзора, погоняясь за метриками.
По данным внутреннего отчета Microsoft (утекшего в TechCrunch), в период с июня по декабрь 2025 года количество code review на одного старшего разработчика выросло с 15 до 62 в неделю. Качество ревью при этом упало на 70% по метрикам статического анализа.
Безопасность? Какая безопасность?
Самое тревожное в этой истории — вопросы безопасности. Если базовые функции ломаются из-за AI-генерированного кода, что происходит с критическими компонентами безопасности?
Эксперты уже указывают на потенциальные катастрофы:
- Уязвимости в обработке сетевых пакетов
- Потенциальные бэкдоры из-за неправильно сгенерированного криптографического кода
- Проблемы с изоляцией процессов, которые могут привести к эскалации привилегий
И это не теоретические страшилки. В 2025 году уже были случаи, когда хакеры взламывали Copilot через промпт-инъекции. Что если подобные уязвимости остались в коде Windows?
"Мы проверяем AI-генерацию на базовые уязвимости, — признается security-инженер из Microsoft (анонимно). — Но статические анализаторы не ловят логические ошибки. А ИИ как раз часто ошибается в логике, создавая код, который технически корректен, но семантически ошибочен".
Что теперь делать Microsoft?
На момент написания статьи (16 февраля 2026 года) Microsoft предпринимает отчаянные шаги:
- Откат ноябрьского обновления для всех пользователей
- Срочный найм 3000 контрактных разработчиков (ирония судьбы)
- Пересмотр политики использования ИИ-инструментов в критической инфраструктуре
- Создание "ручного" ревью для всех AI-генерированных компонентов ядра Windows
Но доверие уже подорвано. Акции Microsoft упали на 8% после новостей о масштабах проблем. Крупные корпоративные клиенты, включая несколько банков и правительственных агентств, приостановили обновления до "выяснения обстоятельств".
Эта ситуация стала наглядным уроком для всей индустрии. Как показывает практика, внедрение ИИ часто оказывается убыточным, если делать это бездумно, гонясь за модой.
Большая картина: тренд, а не случайность
История Microsoft — не единичный случай. Это часть общей тенденции. В 2025 году, по данным нашего расследования "ИИ уволил 55 000 человек в 2025", компании по всему миру сократили десятки тысяч IT-специалистов, рассчитывая на автоматизацию.
Но вот парадокс: теперь те же компании ищут разработчиков, чтобы чинить то, что наломал ИИ. Рынок контрактных разработчиков взлетел на 40% за последний квартал 2025 года.
Старший архитектор из Google (не связанный с Microsoft) резюмирует: "ИИ-инструменты — это как мощный автомобиль. Да, он может ехать быстрее человека. Но если посадить за руль того, кто не знает ПДД и не понимает, как работает сцепление, он врежется в первую же стену. Microsoft просто первой набрала достаточную скорость для такого столкновения".
Что дальше? Скорее всего, мы увидим:
- Волну судов от корпоративных клиентов, чей бизнес пострадал из-за багов
- Ужесточение регулирования для ИИ в критической инфраструктуре
- Возвращение "старой гвардии" разработчиков с повышенными зарплатами
- Новый виток выгорания среди оставшихся инженеров, которые должны тащить на себе и разработку, и исправление AI-ошибок
Мораль истории проста: технологии — всего лишь инструменты. Самые продвинутые ИИ не заменят опыт, интуицию и системное мышление senior-разработчика. Особенно когда дело касается операционных систем, которые работают на миллиардах устройств.
Microsoft, кажется, усвоила этот урок дорогой ценой. Остальные компании, глядя на этот провал, еще могут избежать подобной судьбы. Если, конечно, перестанут верить в магию "искусственного интеллекта" и вспомнят про старый добрый "естественный разум".