Спутник, который не ждет команды
17 мая 2026 года Planet Labs сделала то, о чем до сих пор говорили только в лабораториях NASA: включила бортовой ИИ на коммерческих спутниках. Не эксперимент, не тест - продакшен. Спутник Pelican-4 теперь классифицирует объекты прямо на орбите, не сбрасывая сырые терабайты на Землю. Время реакции - 30 миллисекунд на кадр.
Раньше схема выглядела так: спутник щелкает, пишет на диск, ждет пролета над наземной станцией, сбрасывает данные, а на Земле кто-то разбирает этот ворох. Между снимком и реакцией - часы. Если в кадре лесной пожар, за это время он успевает уйти на километры.
Теперь Pelican-4 видит дым, классифицирует его как "пожар" и отправляет 10 байт координат через лазерный канал. Тревога - за минуты, а не часы. И это не фантастика, а строчка в пресс-релизе Planet Labs.
Подробнее о том, как Pelican-4 начал видеть и классифицировать объекты без связи с Землей, читайте в нашей предыдущей статье: AI на орбите: как спутник Pelican-4 начал видеть и классифицировать объекты без связи с Землей
Что изменилось с апреля 2026
Напомним: первый Pelican-4 с бортовым ИИ вышел на орбиту в апреле 2026. Тогда это был прототип. Сейчас, спустя месяц, компания объявила, что нейросеть работает на всех новых спутниках группировки. А старые аппараты, по словам CEO Planet Labs Уилла Маршалла, получат софтверное обновление в ближайшие недели.
Внутри - модифицированный чип NVIDIA Jetson AGX Orin, адаптированный к радиации. Модель - облегченная версия YOLO-NAS, переписанная под TensorRT с квантизацией INT8. Именно это сочетание уложилось в 30 мс при энергопотреблении, которое не расплавит спутник.
Камера Pelican-4 снимает в 8 спектральных каналов - от видимого до коротковолнового инфракрасного (SWIR). Разрешение - 50 см на пиксель. Это не рекорд (WorldView от Maxar дает 31 см), но у Maxar нет бортового ИИ. Платить за терафлопсы на орбите пришлось жертвой разрешения, но Planet Labs сделала ставку на скорость реакции.
Модель обучена на 80 классов: от танкеров и контейнеровозов до пожаров, облаков и сельхозугодий. Точность классификации, по заявлению компании, - 94% на тестовом датасете. На реальных снимках - чуть ниже, около 89%, но это уже продакшен-уровень.
Почему это переворачивает рынок
Главная проблема спутниковой съемки - пропускная способность канала. Спутник может генерировать терабайты снимков в сутки, а скачать их можно только в короткие окна пролета над станцией. Если 95% кадров - облака, океан или пустыня, зачем тратить драгоценные мегагерцы?
Pelican-4 отбрасывает "мусор" прямо на орбите. Он не передает сырые снимки - только классифицированные метки и, при необходимости, небольшой фрагмент изображения. Это радикально снижает требования к каналу связи и задержку. Для оборонных заказчиков (а Planet Labs активно работает с Пентагоном) это значит, что разведданные поступают в реальном времени, а не с опозданием.
Кстати, о конкурентах: WorldView от Maxar по-прежнему полагается на наземную обработку. Да, у них выше разрешение, но в гонке "скорость vs качество" Planet Labs выбрала скорость. И, похоже, не прогадала.
Технические детали: как это работает на орбите
Чип Jetson AGX Orin потребляет около 15 Вт в штатном режиме. Для космоса это немного, но проблема отвода тепла остается критической. Инженеры Planet Labs использовали пассивное охлаждение через радиаторы и тепловые трубки - решение, которое уже обкатано в проекте Sophia Space. Без этого чип бы перегревался за минуты.
Модель YOLO-NAS, сжатая до INT8, занимает всего 4 МБ на борту. Датасет не хранится - только веса. Inference происходит на каждом кадре сразу после захвата. Если объект не входит в 80 классов, он игнорируется (но можно дообучить на Земле и залить новую прошивку).
Встроенный лазерный терминал позволяет передавать метки на спутники-ретрансляторы Starlink, откуда данные уходят прямо в дата-центры. Это снижает задержку до 30 секунд. Революция для мониторинга чрезвычайных ситуаций.
Что дальше? Неочевидные последствия
Onboard AI на спутниках - это не просто фича. Это меняет бизнес-модель всей индустрии Earth observation. Раньше провайдеры продавали снимки. Теперь они могут продавать "тревоги" и "уведомления" в реальном времени. Planet Labs уже анонсировала API, где клиент платит за событие (например, "пожар в таком-то квадрате"), а не за пиксели.
Еще один эффект - снижение порога входа. Если раньше для спутникового мониторинга нужна была мощная наземная инфраструктура, то теперь достаточно подписки на поток событий. Это открывает рынок для небольших агрохолдингов, страховых компаний и эко-активистов.
Конечно, есть и риски. Точность 89% означает, что 11% объектов будут пропущены или ложно классифицированы. Для военных приложений это критично. Кроме того, нейросеть может "ослепнуть" при нештатной ситуации - например, при сбое питания или повышенной радиации. Но Planet Labs обещает, что система самодиагностики откатывает модель до безопасного состояния за 200 мс.
В долгосрочной перспективе Planet Labs не одинока. Платформа Nvidia Vera Rubin и проекты орбитальных дата-центров обещают еще больше вычислительной мощности на орбите. Но пока Pelican-4 - единственный, кто делает это в коммерческом масштабе.
Совет: если вы проектируете систему мониторинга, обратите внимание на onboard AI. Да, пока это дороже традиционных снимков, но экономия на канале связи и скорости реакции окупается в сценариях, где важна каждая секунда. Не ждите, пока технология подешевеет - тестируйте уже сейчас.