ИИ-классификация на спутнике: прорыв Pelican-4 от Planet Labs | AiManual
AiManual Logo Ai / Manual.
03 Май 2026 Новости

AI на орбите: как спутник Pelican-4 начал видеть и классифицировать объекты без связи с Землей

Planet Labs совершила революцию в наблюдении Земли: спутник Pelican-4 теперь сам распознаёт объекты на орбите. Как работает бортовой ИИ и почему это меняет всё.

Представьте: проливной дождь в Амазонии, спутник пролетает над очагом пожара, делает снимок, записывает его на борт, ждёт следующую наземную станцию через 90 минут, сбрасывает гигабайты сырых кадров, а на Земле кто-то должен разобрать эти данные, найти дым, поднять тревогу. Проходит ещё два часа. Пожар уже ушёл вглубь. Теперь представьте другое: спутник сам видит дым, классифицирует его как 'пожар', отправляет 10 байт координат через лазерный канал — через 30 секунд тревога в МЧС. Это не фантастика. Это Pelican-4 от Planet Labs.

Спутник, который не ждёт команды

Первый коммерческий аппарат с полноценным бортовым ИИ для классификации объектов вышел на орбиту в апреле 2026 года. Pelican-4 — это не просто очередной 'кубик' с камерой. Внутри — нейросеть, работающая на модифицированном чипе NVIDIA Jetson AGX Orin, адаптированном к радиации. Модель — специально облегчённая версия YOLO-NAS, переписанная под TensorRT с квантизацией INT8. На борту нет места для датасета — модель обучается на Земле, а на орбите только делает inference. И делает это быстро: 30 миллисекунд на кадр.

Это первый случай, когда коммерческая компания внедрила onboard AI в спутниковую группировку на уровне продакшена, а не эксперимента. У NASA и ESA такие тесты были, но Planet Labs сделала это для десятков аппаратов.

Зачем? Всё упирается в пропускную способность канала. Спутники наблюдения генерируют терабайты снимков в сутки, а скачать их на Землю можно только в узком окне пролёта над станцией. Если 95% кадров — это облака, океан или пустыня, зачем тратить драгоценные мегагерцы? Pelican-4 отбрасывает 'мусор' прямо на орбите.

Как Pelican-4 видит мир

Камера Pelican-4 снимает в 8 спектральных каналов — от видимого до SWIR. Разрешение — 50 см на пиксель. Для сравнения: WorldView от Maxar даёт 31 см, но у них нет бортового ИИ. Pelican-4 берёт не качеством картинки, а скоростью реакции. Модель обучена распознавать 80 классов: грузовые корабли, танкеры, военные суда, лесные пожары, сельхозполя, облака, стройки. Точность — 87% по mAP на тестовых данных Planet Labs.

Интересная деталь: компания не раскрывает, какие именно объекты классифицирует Pelican-4 для военных заказчиков. Но намекают, что список динамический и может обновляться по защищённому каналу. Звучит логично — загрузили новую весовую матрицу, и спутник начинает искать не только корабли, но и, скажем, бронетехнику.

Энергия и космос — вечный компромисс

Главная проблема бортового AI — энергопотребление. Jetson AGX Orin жрёт до 50 Вт. Для спутника-батона весом 150 кг это много. Pelican-4 использует хитрый трюк: активирует нейросетевой ускоритель только при пролёте над целевыми регионами. Остальное время — спит, заряжает батареи. Управляет этим небольшой RISC-V контроллер, похожий на тот, что Nvidia ставит в авто. Разница — здесь нет права на ошибку: если спутник 'задумается' и пропустит окно связи, данные не уйдут.

Ещё одна инновация — термоменеджмент. Чип греется, а космос — вакуум. Planet Labs поставила пассивную систему отвода тепла через радиаторы с графеновым покрытием. Говорят, температура держится в пределах -20/+60 °C, что для космоса вполне комфортно.

Что это меняет для индустрии

До Pelican-4 спутниковые данные продавались по принципу 'вот вам снимок, разбирайтесь сами'. Теперь Planet Labs может продавать результаты классификации. Хотите знать, сколько танкеров зашло в порт за сутки? Пожалуйста, 50 копеек за объект. Это прямой удар по бизнесу аналитических компаний вроде Palantir и Orbital Insight.

Агрономы тоже в выигрыше: Pelican-4 может в реальном времени отслеживать стадии вегетации посевов. Вместо того чтобы ждать неделями обработанный снимок, фермер получает уведомление: 'Поле №7 — очаг хлороза, зафиксирован на 43° с.ш., 78° з.д.'. Как вам такой цифровой агроном?

У любителей птиц и зверей тоже повод для радости. SpeciesNet уже умеет распознавать животных в лесу с камеры, а Pelican-4 сможет подсчитывать стаи перелётных птиц или стада оленей с высоты 500 км. Правда, с разрешением 50 см слона от носорога он не отличит — но стадо коров от рощи деревьев запросто.

А что насчёт облаков? Falcon Perception борется с облаками на земле, а Pelican-4 просто не делает снимки под облачностью — нейросеть оценивает процент покрытия и решает, стоит ли активировать камеру. Экономия энергии и места на бортовом накопителе.

Хайп или реальность?

Давайте честно: 87% точности — это не 99%. Модель ошибается. При ярком солнце путает нефтяное пятно с планктоном. Тень от высотного здания может классифицироваться как 'пожар'. Planet Labs говорит, что они используют ансамбль из трёх моделей, каждая проверяет результат остальных. Но это всё равно не гарантирует идеал.

И второй момент — безопасность. Если спутник сам принимает решения, кто отвечает за ложную тревогу? Владельцы танкеров уже подали первый иск: Pelican-4 якобы обозначил рыбацкую лодку как военный корабль, и данные ушли в страховую компанию. Planet Labs парирует: 'Мы передаём только координаты и класс, а верификацию проводит заказчик'. Пока юристы разбираются, рынок onboard AI уже оценивается в $4.5 млрд к 2027.

Что дальше: спутниковый коллективный разум

Самое интересное — не в одном Pelican-4, а в группировке. Planet Labs планирует запустить ещё 30 таких аппаратов в 2026-2027. Они смогут обмениваться информацией через лазерные каналы: один заметил корабль, передал координаты другому, тот делает детальный снимок. Это уже не просто спутники — это распределённая нейросеть над планетой.

Кстати, 3D-понимание пространства им тоже не помешает: если два спутника видят один объект под разными углами, можно восстановить его высоту и объём. Пока это в планах, но я бы не удивился, если через год Pelican-5 начнёт строить 3D-модели прямо на орбите.

Лично меня больше всего впечатляет не скорость, а изящность решения. Вместо того чтобы качать к Земле всё подряд, спутник превращается в разумного цифрового шпиона, который сам решает, что важно. И это ломает старую модель 'сначала собери, потом анализируй'.

💡
Следите за новостями проекта Pelican — открытая документация по задачам классификации обещает появиться к осени. Возможно, Planet Labs выложит датасет для обучения, как это сделали с аналогичными данными в 2024 году.

И последнее: не советую так думать, что onboard AI заменит наземные центры обработки. Нет. Спутник остаётся ограниченным по памяти и времени жизни. Он — первый фильтр. Грубый, быстрый, дешёвый. А уж потом за дело берутся люди — или LLM на серверах. И вот тут, кстати, локальные AI-станции могут отлично дополнять спутниковые данные в отдалённых районах. Приземлился — связался со спутником, получил быстрый анализ. Но это уже совсем другая история.

Подписаться на канал